- ++ Urso, 'spero di chiudere l'operazione Ilva in un anno' ++
- Khamenei, tutti i musulmani si schierino con Hezbollah
- G7 Agricoltura, adottato il comunicato finale
- Mattarella, ricette semplicistiche sul clima adatte a imbonitori
- ++ Bimba ingerisce droga, padre arrestato per stupefacenti ++
- Petrini, grandi piatti della tradizione italiana fatti da donne
- Mattarella, sul clima ritardi funesti, ora progressi decisivi
- Mattarella, inadeguati nell'affrontare i cambiamenti climatici
- Meloni, Italia che cresce è merito del tessuto produttivo
- Renzi, in Liguria rottura definitiva
- Vivendi, le quote Tim e Mfe a garanzia ma mantiene 'mani libere'
- Meloni, governo risponde a voglia protagonismo del Sud
- Pezeshkian, attacco israeliano a Beirut è crimine di guerra
- Mattarella ricorda Mastroianni,icona per suo contributo all'arte
- Idf, 'nuovi attacchi a Beirut dopo missili dal Libano
- Media, Israele intende intensificare attacchi a Beirut
- Il 17enne di Viadana: 'Volevo sapere che si prova a uccidere'
- Helene, il bilancio dei morti in Usa sale a oltre 45
- Al via l'addestramento per le nuove riserve degli astronauti Esa
- Volkswagen taglia ancora le previsioni sul 2024
- Scontro sull'algoritmo anti-disinformazione di Facebook
- Fonte vicina ad Hezbollah, 'Nasrallah sta bene'
- Landini, a ottobre parte mobilitazione, non è che l'inizio
- Governatore della Georgia, 11 morti travolti da Helene
- Il prezzo del gas termina in leggera crescita a 38,1 euro
- Lazza vola in testa alla hit parade con Locura
- Borsa: a Milano vola Moncler, in luce Stm e Stellantis
- Barbara Berlusconi, amareggia la scelta di Sala su Malpensa
- Lo spread Btp-Bund chiude in salita a 131,6 punti base
- Folgiero, nostro target è assumere 1000 persone quest'anno
- Cingolani, cambiamenti sono rapidi, non c'è tempo da perdere
- Borsa: l'Europa termina positiva, Francoforte +1,22%
- Borsa: Milano chiude in rialzo, +0,92%
- Marte,l'atmosfera perduta potrebbe essere intrappolata nel suolo
- Raid israeliani contro roccaforte Hezbollah a Beirut
- Bollette luce, +8,8% nell'ultimo trimestre per i vulnerabili
- Idf, 'nuovi attacchi contro obiettivi Hezbollah in Libano'
- Edizione record per la Tech Week, oltre 20.000 persone alle Ogr
- Zelensky, con Trump visione comune sullo stop alla guerra
- Negli oceani per il cambio clima cresce la 'foresta' di plancton
- Borsa: Europa ok con Wall Street dopo l'inflazione, Milano +0,6%
- La fiducia dei consumatori Usa sale ai massimi da cinque mesi
- Ita, torna il logo Alitalia, affiancherà il marchio
- Orlando, appello all'unità dopo lo strappo di Italia viva
- A Palermo raffica di 'bocciature' a trattenimenti migranti
- Iv non partecipa alle elezioni in Liguria, dà liberta di voto
- L'attrice britannica Maggie Smith è morta a 89 anni
- L'uragano Helene filmato dalla Stazione Spaziale Internazionale
- Arriva il Psb, deficit scende, Superbonus ritarda calo debito
- Bce, in calo le attese d'inflazione dei consumatori
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
Y.Uduike--CPN