banner
Centro notizie
Ottieni supporto in qualsiasi momento con il nostro servizio online 24 ore su 24.

I ricercatori non possono dire se riescono a rimuovere completamente le allucinazioni dell'IA: parte "inerente" dell'uso "non corrispondente"

Dec 20, 2023

L'ex litigator Jacqueline Schafer, CEO e fondatrice di Clearbrief, ha affermato che l'intelligenza artificiale è spesso utilizzata nelle aule di tribunale e ha creato Clearbrief per verificare le citazioni e i documenti giudiziari creati dall'intelligenza artificiale generativa.

Alcuni ricercatori sono sempre più convinti che non saranno in grado di rimuovere le allucinazioni dai modelli di intelligenza artificiale (AI), che rimangono un ostacolo considerevole per l’accettazione pubblica su larga scala.

"Al momento non comprendiamo molto della natura della scatola nera su come l'apprendimento automatico arriva alle sue conclusioni", ha detto a Fox News Digital Kevin Kane, CEO della società di crittografia quantistica American Binary. "Con l'approccio attuale per percorrere questo percorso dell'intelligenza artificiale, non è chiaro come lo faremmo. Dovremmo cambiare molto il modo in cui funzionano."

Le allucinazioni, un nome per le informazioni imprecise o i testi senza senso che l'intelligenza artificiale può produrre, hanno afflitto modelli linguistici di grandi dimensioni come ChatGPT per quasi tutta la loro esposizione pubblica.

I critici dell’intelligenza artificiale si sono immediatamente concentrati sulle allucinazioni come motivo per dubitare dell’utilità delle varie piattaforme, sostenendo che le allucinazioni potrebbero esacerbare problemi già seri legati alla disinformazione.

I POPOLARI PROGRAMMI BASATI SULL'AI STANNO FACENDO UN PASTICCIO IN TRIBUNALE, AFFERMANO GLI ESPERTI

Un'illustrazione del 4 maggio 2023 (Reuters/Dado Ruvic/Illustration)

I ricercatori hanno rapidamente proseguito gli sforzi per rimuovere le allucinazioni e migliorare questo "problema noto", ma questo "problema di elaborazione dei dati" potrebbe non scomparire mai a causa del "caso d'uso", il fatto che l'intelligenza artificiale potrebbe avere problemi con alcuni argomenti, ha affermato Christopher Alexander, capo analisi. funzionario del Pioneer Development Group.

"Penso che sia assurdo dire che puoi risolvere ogni problema così come dire che non puoi mai risolverlo", ha detto Alexander a Fox News Digital. "Penso che la verità stia nel mezzo, e penso che varierà molto da caso a caso.

CHE COS'È L'INTELLIGENZA ARTIFICIALE (AI)?

"E se riesci a documentare un problema, trovo difficile credere che non puoi risolverlo."

Emily Bender, professoressa di linguistica e direttrice del Computational Linguistics Laboratory dell'Università di Washington, ha detto all'Associated Press che le allucinazioni potrebbero essere "irrisolvibili" perché derivano da una discrepanza "intrinseca" tra "la tecnologia e il caso d'uso proposto".

Secondo Alexander, questa discrepanza esiste perché i ricercatori hanno cercato di applicare l’intelligenza artificiale a molteplici casi e situazioni d’uso.

ChatGPT è un modello linguistico di grandi dimensioni che funziona analizzando enormi set di dati da informazioni disponibili su Internet. (Leon Neal/Getty Images)

Durante lo sviluppo di un'intelligenza artificiale per affrontare un problema specifico, il team di Alexander ha esaminato i modelli esistenti da riutilizzare per svolgere un compito invece di costruire un modello completo. Ha affermato che il suo team sapeva che il programma non avrebbe creato risultati ideali, ma sospettava che molti gruppi adottassero un approccio simile senza accettare di conseguenza la comprensione delle prestazioni limitate.

"[I ricercatori] mettono insieme pezzi di qualcosa, e non è necessariamente fatto per quello, e ora cosa farà l'intelligenza artificiale nelle circostanze? Probabilmente non lo fanno completamente", ha spiegato Alexander, suggerendo che i ricercatori potrebbe provare a perfezionare l’intelligenza artificiale o creare modelli personalizzati per compiti o settori specifici in futuro. "Quindi, non penso che sia universale. Penso che sia molto caso per caso."

CHE COS'È CHATGPT?

Kane ha affermato che fissare l'obiettivo di sbarazzarsi delle allucinazioni è "pericoloso" poiché i ricercatori non comprendono appieno come funzionano gli algoritmi alla base dell'intelligenza artificiale, ma parte di ciò si riduce a un difetto nella comprensione di come funziona l'intelligenza artificiale nel complesso.

"Gran parte dell'apprendimento automatico è a nostra immagine", ha spiegato Kane. "Vogliamo che ci parli nel modo in cui parliamo tra noi.

Il logo Nvidia visualizzato sullo schermo di un telefono e un microchip sono visibili in questa illustrazione di Cracovia, Polonia, 19 luglio 2023. (Jakub Porzycki/NurPhoto tramite Getty Images)

"In genere cerchiamo di progettare sistemi che imitino il modo in cui gli esseri umani comprendono l'intelligenza, giusto?" Ha aggiunto. "Anche gli esseri umani sono una scatola nera e presentano alcuni degli stessi fenomeni. Quindi la domanda è: se vogliamo sviluppare l'intelligenza artificiale, significa che vogliamo essere come gli umani.