🌐 Arriva puntuale Marketing Hackers Intelligence, la vostra finestra quotidiana sul futuro. In pochi minuti vi guideremo attraverso i cambiamenti tecnologici che stanno ridefinendo le regole del gioco.
🔍 Il focus di oggi: OpenAI prevede una drastica riduzione dei costi per i modelli AI, Meta migliora il ragionamento degli LLM con System 2 distillation, e DeepMind svela JEST, un algoritmo che promette di rendere l'addestramento AI più veloce ed ecologico. E ancora, l'AI entra nel settore militare con armi autonome, Pinterest svela Canvas AI per una nuova esperienza visiva e un sondaggio rivela diffusi equivoci su ChatGPT. Infine, OpenAI sotto accusa per test affrettati e Bioptimus lancia un modello AI open-source per la patologia. Restare informati sull'AI è essenziale per cogliere nuove opportunità e ottenere vantaggi competitivi.
Pinterest svela Canvas AI
Pinterest ha presentato Canvas, un modello di intelligenza artificiale generativa che promette di ridefinire l'esperienza visiva sulla piattaforma. A differenza di altri sistemi, Canvas perfeziona i contenuti esistenti, in linea con la missione di Pinterest. Questa tecnologia consente manipolazioni sofisticate delle immagini, aprendo nuovi orizzonti per utenti e marchi. I rivenditori possono mostrare i loro prodotti in contesti diversi, mentre gli utenti possono sperimentare stili di arredamento e moda. Nonostante l'entusiasmo per Canvas, i dirigenti di Pinterest hanno ribadito il loro impegno verso uno sviluppo responsabile dell'AI, ponendo al primo posto sicurezza, affidabilità e autenticità. L'introduzione di Canvas segna un salto qualitativo nella strategia AI di Pinterest, collocando l'azienda all'avanguardia nella tecnologia di scoperta visiva. 📸✨
OpenAI prevede calo costi modelli AI
OpenAI, l'azienda dietro i modelli linguistici GPT, anticipa una riduzione dei costi dei suoi modelli di intelligenza artificiale nel prossimo futuro. Olivier Godement, responsabile API Product di OpenAI, sottolinea come il costo per token/parola del modello GPT-4 sia già calato dell'85-90% rispetto al suo debutto 15 mesi fa. Questa riduzione dei costi, secondo Godement, continuerà, rendendo i modelli AI più accessibili e aprendo la strada a nuove applicazioni per i clienti. 📉🤖
Meta migliora il ragionamento delle AI
I ricercatori di Meta FAIR hanno sviluppato una tecnica chiamata System 2 distillation che permette ai modelli linguistici di grandi dimensioni (LLM) di affrontare compiti complessi senza passaggi intermedi. Di solito, gli LLM sono abili nel pensiero System 1, rapido e intuitivo, ma faticano con il pensiero System 2, più analitico. La nuova metodologia distilla le competenze del ragionamento System 2 nel System 1, rendendo il processo più veloce ed efficiente. Questo consente al modello di trovare direttamente la soluzione, evitando le fasi di ragionamento. I risultati mostrano che la System 2 distillation migliora significativamente le prestazioni degli LLM in compiti complessi, spesso eguagliando o superando l'accuratezza dei metodi System 2 originali, ma con una notevole riduzione del tempo e delle risorse computazionali necessarie. 🔍✨
Armi autonome: l'AI entra in guerra
L'intelligenza artificiale sta entrando velocemente nel settore militare, con lo sviluppo di sistemi d'arma autonomi che sollevano preoccupazioni etiche e strategiche. Nonostante l'imprevedibilità di queste tecnologie, gli eserciti nazionali mostrano un forte interesse per le applicazioni belliche dell'AI, inaugurando una nuova fase paragonabile allo sviluppo della bomba atomica durante la Seconda Guerra Mondiale. L'assenza di normative e la scarsa trasparenza che circondano questi armamenti potenziati dall'AI generano una 'doppia scatola nera', rendendo difficile per l'opinione pubblica comprenderne il funzionamento.
OpenAI sotto accusa per test affrettati
OpenAI = è al centro di polemiche per aver accelerato il processo di verifica del suo modello linguistico GPT-4 Omni, ignorando gli avvertimenti del proprio team di sicurezza. Fonti anonime affermano che l'azienda abbia trattato la sicurezza di GPT-4 come scontata, mancando di condurre test approfonditi come promesso. Questa rivelazione si inserisce in un contesto di crescenti preoccupazioni sulle pratiche di OpenAI e sembra essere in contrasto con i parametri stabiliti dall'ordine esecutivo del Presidente Biden sull'AI. 🌐
DeepMind presenta JEST: nuovo algoritmo per l'AI
DeepMind ha svelato JEST (Joint Example Selection), un nuovo algoritmo che promette di cambiare l'addestramento dei modelli di intelligenza artificiale. Questa tecnologia affronta le grandi sfide del settore: i costi elevati e l'impatto ambientale notevole legati all'addestramento su larga scala. JEST si distingue per la sua capacità di selezionare in modo intelligente i set di dati più utili, operando a una velocità 13 volte superiore e con un'efficienza energetica 10 volte maggiore rispetto alle tecniche attuali. Oltre a migliorare le prestazioni e la precisione dei modelli, l'algoritmo è prezioso per individuare e ridurre i pregiudizi nei dati, promuovendo uno sviluppo dell'AI più inclusivo. 🌐
OpenAI svela sistema di valutazione AGI
OpenAI ha presentato un nuovo sistema di classificazione a cinque livelli per misurare i progressi verso l'intelligenza artificiale generale (AGI). Questa struttura descrive tecnologie ipotetiche, dalle capacità attuali dell'IA a sistemi che potrebbero gestire intere organizzazioni. L'azienda dichiara di essere vicina al raggiungimento del Livello 2, chiamato Reasoners. L'introduzione di questo sistema solleva domande sulla possibilità di quantificare oggettivamente i progressi dell'IA e sulla definizione di avanzamento in questo settore. Alcuni esperti vedono questa mossa come una strategia di marketing per attirare investimenti, piuttosto che come un vero indicatore di progresso tecnologico. 🌐
Modello AI per patologie trasforma la diagnostica
Bioptimus, startup francese, ha presentato H-optimus-0, il più ampio modello AI open-source per la patologia. Con 1,1 miliardi di parametri, questo sistema all'avanguardia eccelle in compiti diagnostici cruciali, dall'identificazione di cellule cancerose al rilevamento di anomalie genetiche tumorali. La divulgazione del codice sorgente punta ad accelerare l'innovazione nel campo patologico e oltre, anticipando lo sviluppo di un modello fondazionale multiscala della biologia capace di integrare dati biologici eterogenei. 🌟
Sondaggio: due terzi degli intervistati crede che ChatGPT sia cosciente.
Un recente studio dell'Università di Waterloo e dell'University College London ha mostrato una diffusa incomprensione sulle capacità di ChatGPT. Il sondaggio, che ha coinvolto gli utenti più frequenti del chatbot di OpenAI, ha rivelato che circa due terzi degli intervistati attribuiscono erroneamente a ChatGPT caratteristiche umane come coscienza, emozioni e memoria. Gli studiosi evidenziano l'importanza di considerare queste percezioni pubbliche nella progettazione e regolamentazione dell'AI, garantendone un uso sicuro, in collaborazione con gli esperti del settore. 📊🤖
Se avete apprezzato queste informazioni, aiutateci a crescere: condividetele con la vostra rete di colleghi e amici e invitateli a iscriversi per diffondere la conoscenza. Continuate a seguirci per rimanere sempre aggiornati nel mondo dell'intelligenza artificiale e scoprire nuove opportunità.