La tecnologia moderna ci offre molte cose.

Questa settimana in AI: Mistral e la lotta dell'UE per il dominio dell'IA


Stare al passo con un settore frenetico come quello dell’intelligenza artificiale è un compito arduo. Quindi, finché un'intelligenza artificiale non potrà farlo per te, ecco un utile riepilogo delle storie recenti nel mondo dell'apprendimento automatico, insieme a ricerche ed esperimenti importanti di cui non abbiamo parlato da soli.

Questa settimana, Google ha inondato i canali di annunci riguardanti Gemini, la sua nuova ammiraglia multimodale AI. Si scopre che non è così impressionante come inizialmente dimostrato dall'azienda - o meglio, la versione "lite" del modello (Gemini Pro) che Google ha rilasciato questa settimana non lo è. (Non aiuta il fatto che Google abbia falsificato una demo del prodotto.) Riserveremo il giudizio su Gemini Ultra, la versione completa del modello, fino a quando non inizierà a diffondersi in varie app e servizi Google all'inizio del prossimo anno.

Ma basta con i chatbot. Il più grande, direi, è un round di finanziamento che è appena entrato nella settimana lavorativa: Maestrale AI raccogliendo 450 milioni di euro (~ 484 milioni di dollari) per una valutazione di 2 miliardi di dollari.

Abbiamo già trattato il Mistral. A settembre, la società, co-fondata da Google DeepMind e dagli ex studenti di Meta, ha lanciato il suo primo modello, il Mistral 7B, che all'epoca sosteneva fosse di dimensioni superiori. Mistral ha chiuso uno dei più grandi round di seed in Europa fino ad oggi prima della raccolta fondi di venerdì – e non ha ancora lanciato un prodotto.

Ora, il mio collega Dominic ha giustamente sottolineato che le partecipazioni della Mistral, con sede a Parigi, sono un campanello d'allarme per molti preoccupati per l'inclusione. I cofondatori della startup sono tutti bianchi e maschi e dal punto di vista accademico rientrano nel profilo omogeneo e privilegiato di molti dei è stato pesantemente criticato elenco dei cambiamenti dell’intelligenza artificiale.

Allo stesso tempo, gli investitori sembrano vedere Mistral – così come il suo rivale di un tempo, la tedesca Aleph Alpha – come l’opportunità per l’Europa di piantare la propria bandiera nel terreno molto fertile (per ora) di produzione dell’intelligenza artificiale.

Finora, le imprese di produzione di intelligenza artificiale più grandi e meglio finanziate sono state di proprietà statale. OpenAI. Umano. Inflessione dell'intelligenza artificiale. Coerente. L'elenco potrebbe continuare.

La fortuna di Mistral è per molti versi un microcosmo della battaglia per il dominio dell'IA. L’Unione Europea (UE) desidera evitare di essere lasciata indietro in un altro salto tecnologico, imponendo allo stesso tempo norme per guidare lo sviluppo tecnologico. Come recentemente è stato il vicecancelliere e ministro delle finanze tedesco Robert Habeck È elencato come ha detto: “Il pensiero di avere il nostro dominio nel campo dell’intelligenza artificiale è estremamente importante. [Ma] se l’Europa ha la migliore regolamentazione ma non ci sono aziende europee, non abbiamo vinto molto”.

Il divario tra imprenditoria e regolamentazione è emerso in modo evidente questa settimana quando i legislatori dell’UE hanno cercato di raggiungere un accordo sulle politiche per limitare il rischio dei sistemi di intelligenza artificiale. I lobbisti, guidati da Mistral, hanno spinto negli ultimi mesi per un quadro normativo completo per i modelli genetici dell’intelligenza artificiale. Ma i legislatori dell’UE si sono opposti a tale esenzione – per ora.

Detto questo, molto dipende dal Mistral e dai suoi concorrenti europei. Gli osservatori del settore – e i legislatori statali – osserveranno senza dubbio da vicino l’impatto sugli investimenti una volta che i politici dell’UE imporranno nuove restrizioni sull’intelligenza artificiale. Un giorno Mistral potrebbe essere sviluppato per sfidare OpenAI con le normative attuali? Oppure le norme avranno un effetto dissuasivo? È troppo presto per dirlo, ma non vediamo l'ora di vederlo con i nostri occhi.

Ecco alcune altre storie importanti sull’intelligenza artificiale degli ultimi giorni:

  • Una nuova alleanza AI: Meta, all'aperto fonte lacrimazionevuole diffondere la sua influenza nella battaglia in corso per condividere l’intelligenza artificiale. Il social network ha annunciato che sta collaborando con IBM per lanciare l'AI Alliance, un ente industriale per sostenere l'"innovazione aperta" e la "scienza aperta" nell'intelligenza artificiale, ma abbondano ulteriori motivi.
  • OpenAI si rivolge all'India: Ivan e Jagmeet riferiscono che OpenAI sta lavorando con l'ex capo di Twitter India Rishi Jaitly come consulente senior per facilitare le conversazioni con il governo sulla politica dell'IA. OpenAI sta anche cercando di creare un team locale in India, con Jaitly che aiuta la startup di intelligenza artificiale a orientarsi nella politica e nel panorama normativo indiano.
  • Google lancia la possibilità di prendere appunti con AI: NotebookLM, l'app per prendere appunti basata sull'intelligenza artificiale di Google, annunciata all'inizio di quest'anno, è ora disponibile per gli utenti statunitensi di età pari o superiore a 18 anni. Per celebrare il lancio, l'app sperimentale è stata integrata con Gemini Pro, il nuovo modello linguistico di grandi dimensioni di Google, che secondo Google "aiuterà a comprendere e dare un senso ai documenti".
  • OpenAI sotto controllo normativo: Il rapporto amichevole tra OpenAI e Microsoft, uno dei principali sostenitori e partner, è ora al centro di una nuova indagine avviata dall'Autorità per la concorrenza e i mercati nel Regno Unito per verificare se le due società siano effettivamente in una "situazione relativa di fusione" dopo il recente dramma. Secondo quanto riferito, la FTC sta inoltre esaminando gli investimenti di Microsoft in OpenAI in quello che sembra essere uno sforzo concertato.
  • Chiedendo all’intelligenza artificiale: Come è possibile ridurre i pregiudizi se integrati in un modello di intelligenza artificiale dai pregiudizi nei suoi dati di addestramento? Anthropic suggerisce di chiedere educatamente per dire grazie, per favore non discriminare o qualcuno ci farà causa. Sì davvero. Devin ha la storia completa.
  • Meta presenta AI: Insieme ad altri aggiornamenti relativi all'intelligenza artificiale di questa settimana, Meta AI, l'esperienza di produttività AI di Meta, ha acquisito nuove funzionalità, tra cui la possibilità di creare immagini su richiesta, nonché il supporto per Instagram Reels. La prima funzionalità, chiamata “reimagine”, consente agli utenti nelle chat di gruppo di ricreare immagini AI con suggerimenti, mentre la seconda può essere trasformata in Reels come risorsa secondo necessità.
  • Il referrer riceve denaro: La startup ucraina Respeecher per la voce sintetica, forse meglio conosciuta per essere stata scelta per copiare James Earl e l’iconica voce di Darth Vader per una serie animata di Star Wars e successivamente di un giovane Luke Skywalker per The Mandalorian – trova il successo nonostante non solo le bombe cadute sotto la loro città, ma un’ondata di clamore che ha suscitato alcuni concorrenti a volte controversi, scrive Devin.
  • Reti neurali fluide: Uno spin-off del MIT co-fondato dalla luminare della robotica Daniela Rus mira a costruire sistemi di intelligenza artificiale generici alimentati da un tipo relativamente nuovo di modello di intelligenza artificiale chiamato rete neurale fluida. Chiamata Liquid AI, la società ha raccolto 37,5 milioni di dollari questa settimana in un primo round dai sostenitori, inclusa la sua società madre , Automatico.

Più apprendimento automatico

Siti di plastica galleggianti previsti al largo delle coste del Sud Africa.Crediti immagine: EPFL

Le immagini orbitali sono un ottimo parco giochi per i modelli di apprendimento automatico, poiché oggigiorno i satelliti producono più dati di quanti gli esperti possano tenere traccia. I ricercatori dell'EPFL esaminano una migliore identificazione della plastica che entra nell’oceano, un problema enorme ma molto difficile da individuare sistematicamente. Il loro approccio non è innovativo – addestrare un modello sulle etichette delle immagini orbitali – ma hanno perfezionato la tecnica in modo che il loro sistema sia molto più accurato, anche quando è presente una copertura nuvolosa.

Trovarlo è solo una parte della sfida, ovviamente, rimuoverlo è un’altra, ma migliore è l’intelligenza di cui dispongono le persone e le organizzazioni quando svolgono il lavoro reale, più efficaci saranno.

Tuttavia, non tutti i settori hanno questa visibilità. I biologi in particolare devono affrontare una sfida nello studio degli animali scarsamente documentati. Ad esempio, potrebbero voler tracciare i movimenti di un certo tipo raro di insetto, ma a causa della mancanza di immagini di quell’insetto, automatizzare il processo è difficile. Una squadra dell'Imperial College di Londra mette al lavoro il machine learning in collaborazione con la piattaforma di sviluppo di giochi Unreal.

Crediti immagine: Imperial College di Londra

Creando scene fotorealistiche in Unreal e popolandole con modelli XNUMXD della creatura in questione, che si tratti di una formica, un insetto stecco o qualcosa di più grande, possono generare quantità arbitrarie di dati di addestramento per i modelli di apprendimento automatico. Sebbene il sistema di visione artificiale sia stato addestrato su dati sintetici, può essere molto efficace su materiale reale, ad esempio video Spettacoli.

Puoi leggere il loro articolo su Nature Communications.

Tuttavia, non tutte le immagini generate sono così affidabili, come hanno scoperto i ricercatori dell’Università di Washington. Hanno sistematicamente spinto il generatore di immagini open source Stable Diffusion 2.1 a produrre immagini di una "persona" con vari vincoli o posizioni. Hanno dimostrato che il termine “viso” è associato in modo sproporzionato agli uomini occidentali dalla pelle chiara.

Non solo, ma alcuni luoghi e nazionalità hanno prodotto modelli preoccupanti, come immagini sessualizzate di donne provenienti dai paesi dell’America Latina e “una cancellazione quasi completa delle identità non binarie e indigene”. Ad esempio, chiedere le foto di "una persona dell'Oceania" produce uomini bianchi piuttosto che indigeni, anche se questi ultimi sono numerosi nella regione (per non parlare di tutti gli altri non bianchi). Tutto è un work in progress ed è importante essere consapevoli dei pregiudizi inerenti ai dati.

Imparare a destreggiarsi in un modello parziale e discutibilmente utile è nella mente di molti accademici – e in quella dei loro studenti. Questa interessante conversazione con il professore di inglese di Yale Ben Glaser è una visione piacevolmente ottimistica di come cose come ChatGPT possono essere utilizzate in modo costruttivo:

Quando parli con un chatbot, ottieni questa immagine sfocata e strana della cultura. Potresti ottenere un contrappunto alle tue idee, e poi devi valutare se quei contrappunti o le prove a sostegno delle tue idee sono davvero buoni. E c’è una sorta di alfabetizzazione coinvolta nella lettura di questi risultati. Gli studenti di questa classe acquisiscono parte di questa istruzione.

Se è tutto elencato e stai sviluppando un lavoro creativo attraverso complicati avanti e indietro o programmazioni, inclusi questi strumenti, stai semplicemente facendo qualcosa di selvaggio e interessante.

E quando dovrebbe fidarsi di loro, ad esempio, un ospedale? La radiologia è un settore in cui l’intelligenza artificiale viene spesso applicata per identificare rapidamente i problemi nelle scansioni del corpo, ma è tutt’altro che infallibile. Quindi, come dovrebbero i medici sapere quando fidarsi del modello e quando no? Il MIT sembra pensare di poter automatizzare anche quella parte - ma non preoccuparti, non è un'altra intelligenza artificiale. Si tratta invece di un processo di onboarding standard e automatizzato che aiuta a determinare quando un particolare medico o un determinato compito trova utile uno strumento di intelligenza artificiale e quando invece è d'intralcio.

Ai modelli di intelligenza artificiale viene chiesto sempre più spesso di produrre qualcosa di più che semplici testi e immagini. I materiali sono un ambito in cui abbiamo assistito a molti movimenti: i modelli sono ottimi nel trovare potenziali candidati per catalizzatori, catene polimeriche, ecc. migliori. Le startup ci stanno entrando, ma Microsoft ha appena rilasciato un modello chiamato MatterGen che è "specificamente progettato per creare materiali nuovi e stabili".

Crediti immagine: Microsoft

Come puoi vedere nell'immagine sopra, puoi prendere di mira molte qualità diverse, dal magnetismo alla reattività alle dimensioni. Non c'è bisogno di un incidente tipo Flubber o di migliaia di corse in laboratorio: questo modello potrebbe aiutarti a trovare un materiale adatto per un esperimento o un prodotto in poche ore, non in mesi.

Anche Google DeepMind e Berkeley Lab stanno lavorando in questo genere. Sta rapidamente diventando una pratica standard nel settore dei materiali.



VIA: techcrunch.com

Segui TechWar.gr su Google News

Απάντηση