Aprile 26, 2024

Conca Ternana Oggi

Ultime notizie e rapporti economici sull'Italia.

L’open source DALL-E “Open Diffusion” è ora disponibile sul sito web

L'open source DALL-E "Open Diffusion" è ora disponibile sul sito web

Modernizzazione

L'open source DALL-E “Open Diffusion” è ora disponibile sul sito web

Immagine: diffusione stabile

Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser e lade die Seite neu.

Aggiornato il 21 agosto 2022:

Open Diffusion è ora disponibile tramite l’interfaccia web. Dopo aver effettuato l’accesso, puoi creare immagini tramite messaggi di testo, in modo simile a DALL-E 2, e hai diverse opzioni aggiuntive per la regolazione fine. Come con DALL-E 2, ci sono limitazioni alle affermazioni, come immagini sessuali o violente.

Il modello Open Diffusion, che può essere eseguito in locale o nel cloud, non avrà queste limitazioni. Il modello dovrebbe essere lanciato su Github nei prossimi giorni.

Puoi provare Web Open Diffusion gratuitamente. Per l’equivalente di poco meno di $ 12, puoi acquistare circa 1.000 prompt. Il numero effettivo di reclami disponibili dipende dalla complessità dei calcoli e dall’accuratezza della tua immagine.

Clicca qui per andare a DreamstudioAprire l’interfaccia web di Diffusione.

L’articolo originale è datato 14 agosto 2022:

Il concorrente open source di DALL-E di OpenAI funziona sulla tua scheda grafica

DALL-E 2 di OpenAI ottiene la concorrenza gratuita. E dietro c’è il movimento AI open source e l’avvio dell’IA.

L’intelligenza artificiale in grado di creare immagini da descrizioni di testo ha fatto rapidi progressi dall’inizio del 2021. A quel tempo, OpenAI ha mostrato risultati impressionanti con DALL-E 1 e CLIP. La comunità open source ha utilizzato CLIP per diversi progetti alternativi durante tutto l’anno. Quindi, nel 2022, OpenAI ha rilasciato la versione impressionante DALL-E 2Google ha mostrato Immagine E il festaE il Medjourney ha raggiunto milioniE il Craiyon ha inondato i social media con immagini AI.

Startup Stability AI ha ora annunciato il rilascio di diffusione stabileun altro sistema simile a DALL-E 2 che sarà gradualmente reso disponibile ai nuovi ricercatori e ad altri gruppi tramite il server Discord.

Dopo la fase di test, Stable Diffusion verrà quindi rilasciato gratuitamente: il codice e il modello addestrati verranno pubblicati come open source. Ci sarà anche una versione ospitata con un’interfaccia web per consentire agli utenti di testare il sistema.

READ  CS: GO continua a superare il suo picco di utenti simultanei tutto il tempo

Concorrente per la stabilità dell’IA finanziato DALL-E 2 gratuito

La diffusione stabile è il risultato di una collaborazione tra i ricercatori di Stability AI, RunwayML, LMU Munich, EleutherAI e LAION. Il gruppo di ricerca EleutherAI è meglio conosciuto per i suoi modelli di linguaggio open source GPT-J-6B e GPT-NeoX-20Btra gli altri, e svolge anche ricerche su modelli multimediali.

L’organizzazione no profit LAION (The Open Network for Large Scale Artificial Intelligence) ha fornito dati di addestramento con il set di dati LAION 5B open source, che è stato filtrato attraverso il feedback umano nella fase di test iniziale per creare il set di dati di addestramento finale per LAION-Estetica.

Patrick Esser pista di decollo e Robin Rombach della LMU Munich hanno guidato il progetto, sulla base del loro lavoro presso il CompVis Group presso l’Università di Heidelberg. Lì, hanno creato VQGAN E il Diffusione latente. Quest’ultimo è servito come base per Stable Diffusion con la ricerca di OpenAI e Google Brain.

Stability AI, fondata nel 2020, è supportata dal matematico e informatico Emad Mosteqi. Ha lavorato come analista per diversi hedge fund per alcuni anni prima di dedicarsi al business generale. Nel 2019 ha contribuito a fondare Symmitree, un progetto che mira ad abbassare il costo degli smartphone e dell’accesso a Internet per le popolazioni svantaggiate.

Con Stability AI e la propria ricchezza, Mostaque mira a rafforzare la comunità di ricerca sull’IA open source. La sua startup in precedenza ha supportato la creazione del set di dati “LAION 5B”, ad esempio. Per addestrare il modello di implementazione stabile, Stability AI ha introdotto server con 4.000 GPU Nvidia A100.

READ  Giocatore di Elden Ring bandito per "attività inappropriata"

“Nessuno ha alcun diritto di voto tranne i nostri 75 dipendenti, non miliardari, grandi fondi, governi o chiunque altro abbia il controllo sull’azienda o sulle comunità che supportiamo. Siamo completamente indipendenti”, ha detto Mostak a TechCrunch. “Prevediamo di utilizzare il nostro computing per accelerare l’IA di base open source”.

Stable Deployment è un insegnante open source

Attualmente sono in corso test di implementazione stabile, con nuove aggiunte distribuite a ondate. I risultati, che possono essere visti su Twitter, ad esempio, mostrano qui l’aspetto di un vero concorrente di DALL-E-2.

La diffusione stabile è più versatile di Midjourney, ma ha una risoluzione inferiore rispetto a DALL-E 2. | immagine: github

A differenza di DALL-E 2, può generare una diffusione stabile Ritratti VIP E altri argomenti che OpenAI è vietato in DALL-E 2. Anche altri sistemi come Midjourney o Pixelz.ai possono farlo, ma non raggiungono la stessa qualità con l’elevata versatilità vista in Stable Diffusion – e nessuno degli altri sistemi è open source.

Stable Diffusion dovrebbe già funzionare su una singola scheda grafica con 5,1 GB di VRAM, rendendo la tecnologia AI disponibile finora solo tramite servizi cloud. Pertanto, Stable Diffusion offre ai ricercatori e alle parti interessate che non hanno accesso ai server GPU l’opportunità di sperimentare un moderno modello di IA generativa. Il modello dovrebbe anche funzionare su MacBook con il chip M1 di Apple. Tuttavia, ci vogliono diversi minuti per generare l’immagine invece di secondi qui.

DALL-E 2 di OpenAI riceve una competizione open source, guidata dalla comunità open source e dalla startup Stability AI. | immagine: github

La stessa Stability AI vuole anche consentire alle aziende di addestrare la sua variante di implementazione stabile. Pertanto, i modelli multimediali seguono il percorso precedentemente intrapreso dai modelli linguistici di grandi dimensioni: lontano da un unico provider e verso l’ampia disponibilità di molte alternative attraverso l’open source.

READ  Se i generatori di immagini AI sono così intelligenti, perché trovi difficile digitare e contare?

Runway sta già cercando l’editing da testo a video abilitato alla diffusione stabile.

Diffusione stabile: vaso di Pandora e interesse netto

Ovviamente, con l’accesso aperto e la possibilità di eseguire il modello su una GPU ampiamente disponibile, le possibilità di abuso aumentano notevolmente.

“C’è una percentuale di persone che sono semplicemente sgradevoli e strane, ma questa è umanità”, ha detto Mustak. “In effetti, pensiamo che questa tecnologia sarà mainstream e l’atteggiamento un po’ paternalistico e condiscendente di molti appassionati di intelligenza artificiale è fuorviante nella sfiducia nella società”.

Mostaki afferma, tuttavia, che la disponibilità gratuita consente alla comunità di escogitare contromisure.

“Stiamo adottando misure di sicurezza significative, inclusa la creazione di strumenti avanzati per aiutare a mitigare i potenziali danni nel nostro rilascio e nei nostri servizi. Con centinaia di migliaia di prodotti sviluppati su questo modello, siamo fiduciosi che il vantaggio netto sarà molto positivo e, con miliardi in uso, questi i danni saranno annullati Tecnologia”.

Maggiori informazioni sono disponibili all’indirizzo Diffusione stabile di GitHub. Puoi trovare molti esempi delle capacità di creare un’immagine a diffusione stabile in un file Subreddit a diffusione stabile. vai qui per Abbonamento Beta a diffusione stabile.