FYI.

This story is over 5 years old.

Questo generatore di facce infernali è la nuova frontiera del machine learning

L'algoritmo autogenerativo colpisce ancora.

Se vi ricordate, qualche mese fa facevamo la stessa cosa con i gatti. Si disegnava qualcosa in un box che un algoritmo cercava di interpretare come un gatto, e poi lo riempiva di colori e texture secondo un modello di machine learning allenato con migliaia di immagini di felini. Questa è stata la prima iterazione del pix2pix project. Ora abbiamo le facce umane e la cosa sta diventando inquietante.

Il progetto pix2pix dimostra qualcosa di piuttosto profondo sul machine learning nel 2017: non è in grado di generare nuove immagini, o se non altro nuove immagini sensate. Il machine learning se la cava meglio a classificare immagini pre-esistenti ma, anche in quel caso, le cose cambiano in maniera drammatica quando si va oltre i modelli di robusto riconoscimento di oggetti. Per averlo, ci servono milioni di immagini da usare per il training.

Pix2pix è basato su una tecnica promettente di nome generative adversarial networks (GANs). GANs lavora allenando dei modelli generativi che mirano a minimizzare una particolare "funzione di perdita" secondo una predizione che le immagini generate siano vere o false. Di base, imparano a disegnare immagini random in maniera ripetitiva mentre un secondo componente dell'algoritmo li giudica e sancisce "vero" o "falso".

Con un enorme dataset possiamo prendere GANs e fare degli schizzi. Per un dataset più piccolo, possiamo fare così: una transizione da immagine a immagine. Piuttosto che imparare come produrre immagini da uno scarabocchio, impara a mappare le immagini astratte contenute in un modello di machine learning di uno scarabocchio su un trackpad. Riesce a selezionare delle feature tra i doodle e compararle con caratteristiche interne al modello, con i risultati osservati.

Tutto questo può sembrare triviale, ma dovete aspettarvi grandi cose da GANs nel futuro del machine learning generativo.