Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#adessonews
Affitto Immobili
Agevolazioni - Finanziamenti
Aste Abruzzo
Aste Basilicata
Aste Calabria
Aste Campania
Aste Emilia Romagna
Aste Friuli Venezia Giulia
Aste Italia
Aste Lazio
Aste Liguria
Aste Lombardia
Aste Marche
Aste Molise
Aste Piemonte
Aste Puglia
Aste Sardegna
Aste Sicilia
Aste Toscana
Aste Trentino Alto Adige
Aste Umbria
Aste Valle d'Aosta
Aste Veneto
Auto - Moto
bed & breakfast
Immobili
AI e allucinazioni. Un nuovo studio prezioso per le startup #finsubito prestito immediato


Gli ultimi anni sono stati segnati da un boom nell’uso dell’intelligenza artificiale (AI) da parte di startup e aziende di ogni dimensione, con i grandi modelli linguistici (LLM) che in questo contesto occupano una posizione di primo piano. Tuttavia, uno dei problemi persistenti di questi modelli è la loro tendenza a generare informazioni inaccurate, un fenomeno noto come “allucinazioni”. Di recente, uno studio congiunto condotto da un team di TechnionGoogle Research e Apple ha rivelato dettagli significativi su come queste “allucinazioni” siano elaborate internamente dai modelli e come sia possibile migliorare la precisione delle loro risposte.

Comprendere il concetto di allucinazione negli LLM

Il termine “allucinazione” nel contesto dell’intelligenza artificiale si riferisce a errori generati dagli LLM, che includono inesattezze, errori di ragionamento comune e pregiudizi. Non esiste una definizione univoca per questo fenomeno, e molte ricerche si sono focalizzate sulla percezione dell’utente rispetto a questi errori. Fino ad ora, però, pochi studi si sono concentrati sull’origine e sulla codifica di questi errori all’interno dei modelli stessi. Questa recente ricerca si è distaccata da tale tendenza, esaminando i segnali di veridicità “nascosti” all’interno delle attivazioni interne degli LLM.

Le radici dell’allucinazione: un nuovo approccio

A differenza degli studi precedenti, i ricercatori non si sono limitati all’ultimo “token” generato dal modello, che potrebbe non riflettere la risposta completa o la sua accuratezza. Invece, hanno analizzato i “token di risposta esatta”, cioè i segmenti di risposta che, se alterati, potrebbero cambiare completamente la veridicità dell’intero output. Questo approccio ha rivelato che gli LLM codificano segnali di veridicità in modo molto più articolato di quanto si pensasse in precedenza.

Gli esperimenti e i risultati principali

Lo studio ha esaminato diverse varianti dei modelli Mistral 7B e Llama 2 su dieci dataset, tra cui domande e risposte, inferenza logica, risoluzione di problemi matematici e analisi del sentiment. Permettendo ai modelli di generare risposte senza restrizioni, i ricercatori hanno scoperto che le informazioni relative alla veridicità sono concentrate nei token di risposta esatta. Questo dato non solo è emerso costantemente in quasi tutti i dataset e modelli esaminati, ma suggerisce anche che gli LLM possiedono una sorta di “meccanismo universale” per elaborare e codificare la veridicità durante la generazione di testo.

Probing classifiers: uno strumento per migliorare l’accuratezza

Uno degli aspetti innovativi della ricerca è stata l’introduzione dei “probing classifiers”. Questi classificatori, addestrati sui token di risposta esatta, sono in grado di prevedere errori nei modelli. La possibilità di rilevare e classificare tali errori significa che in futuro le startup potranno implementare queste tecniche per mitigare le inesattezze nei propri sistemi di intelligenza artificiale, offrendo servizi più affidabili e precisi.

Inoltre, i classificatori sono risultati efficaci anche nel prevedere specifici tipi di errori che un modello potrebbe generare, suggerendo che le rappresentazioni interne degli LLM contengono dettagli sui modi specifici in cui potrebbero fallire. Per le startup che lavorano in settori critici, come la sanità o la finanza, questi strumenti potrebbero diventare fondamentali per ridurre il rischio di errore e migliorare la fiducia dei clienti.

Mutuo asta 100%

Assistenza consulenza acquisto in asta

Per le startup che lavorano in settori critici, come la sanità o la finanza, questi strumenti potrebbero diventare fondamentali per ridurre il rischio di errore e migliorare la fiducia dei clienti.

Veridicità specifica per le competenze: un limite attuale

Sebbene i probing classifiers abbiano mostrato risultati promettenti, la ricerca ha evidenziato un limite significativo: la loro “veridicità specifica per competenza”. In altre parole, un classificatore addestrato su un dataset di risposte a domande non generalizza a un altro dataset che richiede abilità diverse, come l’analisi del sentiment. Ciò implica che i modelli di intelligenza artificiale devono essere calibrati e verificati specificamente per il contesto in cui vengono utilizzati. Le startup devono quindi tenere conto di questo aspetto quando implementano soluzioni AI: non esiste una soluzione universale.

Discrepanze tra attivazioni interne e output finale

Un altro aspetto intrigante emerso dalla ricerca è la discrepanza tra le attivazioni interne del modello e il risultato finale generato. In alcuni casi, il modello può “conoscere” internamente la risposta corretta, ma generare comunque una risposta errata. Questo fenomeno indica che le valutazioni basate solo sul risultato finale potrebbero non riflettere le vere capacità dell’LLM, e che una migliore comprensione delle attivazioni interne potrebbe sbloccare un potenziale latente per ridurre drasticamente gli errori.

Implicazioni per il futuro dell’AI e delle startup

Le implicazioni di questi risultati sono vaste, in particolare per le startup che utilizzano modelli open-source. Essendo questi ultimi accessibili a livello di rappresentazioni interne, permettono l’applicazione diretta delle tecniche di probing classifiers per migliorare la veridicità. Tali sviluppi aprono possibilità anche per creare applicazioni AI in settori altamente regolamentati, nei quali la sicurezza e l’affidabilità sono essenziali.

Ad esempio, una startup nel campo della salute potrebbe implementare probing classifiers per garantire che le risposte di un chatbot medico siano affidabili e prive di errori gravi, aumentando così la fiducia e riducendo il rischio di danni ai pazienti. Similmente, aziende del settore finanziario potrebbero impiegare questi strumenti per verificare che le raccomandazioni fornite dagli assistenti virtuali siano basate su dati accurati e pertinenti.

Oltre le attuali limitazioni: il potenziale non ancora esplorato

La ricerca evidenzia che il futuro dell’AI risiede non solo nella generazione di risposte, ma anche nella capacità di “comprendere” le proprie risposte, discernendo tra accuratezza ed errore.

La ricerca evidenzia che il futuro dell’AI risiede non solo nella generazione di risposte, ma anche nella capacità di “comprendere” le proprie risposte, discernendo tra accuratezza ed errore.

L’interesse crescente di giganti come OpenAI, Anthropic e Google DeepMind dimostra l’importanza di questo approccio per l’industria dell’AI. Con l’avvento di strumenti che consentono l’accesso a queste attivazioni interne, le startup possono posizionarsi come pionieri nell’offerta di servizi più sicuri e affidabili, attirando investimenti e clienti in cerca di soluzioni AI di qualità.

I vantaggi per le aziende

Questo studio ha dimostrato che gli LLM possiedono una rappresentazione complessa e multifattoriale della veridicità, che va oltre la semplice generazione di testo. Per le startup, ciò rappresenta una preziosa opportunità: comprendere e implementare queste scoperte può migliorare notevolmente la qualità dei prodotti basati su AI e incrementare la fiducia degli utenti. In un mercato sempre più competitivo, le aziende che sapranno integrare queste innovazioni avranno un vantaggio significativo, rafforzando il proprio ruolo nel settore dell’intelligenza artificiale.

Conto e carta difficile da pignorare

Proteggi i tuoi risparmi



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link 

Informativa sui diritti di autore

La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni:  la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.

Vuoi richiedere la rimozione dell’articolo?

Clicca qui

 

 

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Informativa sui diritti di autore

La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni:  la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.

Vuoi richiedere la rimozione dell’articolo?

Clicca qui

 

 

 

Consulenza fiscale

Consulenza del lavoro

Gestione Bed & Breakfasts

Finanziamenti Bed & Breakfasts

Gestione Bed & Breakfasts

Finanziamenti Bed & Breakfasts

Per richiedere la rimozione dell’articolo clicca qui

La rete #dessonews è un aggregatore di news e replica gli articoli senza fini di lucro ma con finalità di critica, discussione od insegnamento,

come previsto dall’art. 70 legge sul diritto d’autore e art. 41 della costituzione Italiana. Al termine di ciascun articolo è indicata la provenienza dell’articolo.

Il presente sito contiene link ad altri siti Internet, che non sono sotto il controllo di #adessonews; la pubblicazione dei suddetti link sul presente sito non comporta l’approvazione o l’avallo da parte di #adessonews dei relativi siti e dei loro contenuti; né implica alcuna forma di garanzia da parte di quest’ultima.

L’utente, quindi, riconosce che #adessonews non è responsabile, a titolo meramente esemplificativo, della veridicità, correttezza, completezza, del rispetto dei diritti di proprietà intellettuale e/o industriale, della legalità e/o di alcun altro aspetto dei suddetti siti Internet, né risponde della loro eventuale contrarietà all’ordine pubblico, al buon costume e/o comunque alla morale. #adessonews, pertanto, non si assume alcuna responsabilità per i link ad altri siti Internet e/o per i contenuti presenti sul sito e/o nei suddetti siti.

Per richiedere la rimozione dell’articolo clicca qui