Bing di Microsoft ha dichiarato che Bard di Google è stato bloccato perché ha erroneamente incluso un tweet scherzoso in un rapporto. Non è di buon auspicio per la diffusione di false informazioni online.
Anche se Bard di Google chiarisce ai consumatori che si tratta di un esperimento, molti utenti potrebbero prendere la cosa sul serio. Con tutti i rischi che ne conseguono.
Se non pensate che l’adozione frettolosa di chatbot alimentati da intelligenza artificiale (AI) da parte delle Big Tech possa danneggiare seriamente l’ecologia dell’informazione sul web, dobbiamo tenere conto di questo:
“In questo momento*, se chiedete al chatbot Bing di Microsoft se il chatbot Bard di Google è stato chiuso, vi risponderà di sì. Citando come prova un articolo di cronaca che parla di un tweet in cui un utente chiedeva a Bard quando sarebbe stato chiuso e Bard rispondeva che l’aveva già fatto. Citando a sua volta un commento di Hacker News in cui qualcuno scherzava su questo fatto e qualcun altro usava ChatGPT di OpenAI per scrivere notizie false sull’evento.”
(ndr. Si riporta “al momento” perché Bing ha aggiornato la sua risposta e ora afferma con precisione che Bard è ancora attivo nel mentre che si stava terminando la redazione di questo articolo. Questo può essere visto come una prova del fatto che questi sistemi sono almeno riparabili o che sono modificabili all’infinito. Rendendo difficile persino rivelare in modo affidabile i loro errori).
Il chatbot Bing di Microsoft cita erroneamente un articolo di cronaca per affermare che il chatbot Bard di Google è stato disattivato.
Si tratta di un segnale di allarme che indica che stiamo entrando in un gioco di battaglia informativa su larga scala. Uno scenario nel quale i chatbot non sono in grado di determinare se le fonti di notizie sono affidabili. Oltre al fatto che interpretano male i racconti su se stessi ed esagerano i propri talenti. In questo caso, un singolo commento umoristico di Hacker News è stato alla base dell’intera situazione. Non è difficile a questo punto immaginare alle cose che qualcuno potrebbe fare fare per far fallire questi sistemi.
È uno scenario abbastanza grottesco quello che si delina. Ma che potrebbe avere ripercussioni importanti. Poiché i modelli linguistici dell’intelligenza artificiale (AI) non sono in grado di distinguere in modo affidabile tra realtà e finzione, la loro introduzione online rischia di lasciare una scia di falsità e sfiducia che sarà difficile da tracciare completamente o da confutare in modo autorevole. Tutto ciò è dovuto alla decisione di Microsoft, Google e OpenAI di anteporre il dominio del mercato alla sicurezza.
Queste aziende possono usare tutti gli avvertimenti che vogliono per descrivere i loro chatbot come “esperimenti”, “collaborazioni” e chiaramente non motori di ricerca. Ma è una difesa debole. Siamo consapevoli di come gli individui utilizzino questi sistemi e abbiamo già visto come propaghino informazioni false inventando nuove storie che non sono mai state pubblicate. Oppure sostenendo di essere libri che non sono mai stati pubblicati. E ora stanno anche notando gli errori degli altri.
La tecnologia ti aiuta a risparmiare sulla bolletta grazie ad una semplice e intuitiva app:…
Si può guadagnare con Bitcoin investendo solo piccole somme di denaro? Tutta la verità dietro…
Alcuni contribuenti riceveranno un accredito sul conto corrente da parte dell'Agenzia delle Entrate: ecco come…
Dal prossimo anno milioni gli cittadini saranno costretti a dover scegliere un nuovo operatore per…
I mutui per la casa sono sempre più alti e la differenza tra le regioni…
È possibile vedere MasterChef Italia 2023 in streaming e ora sarà ancora più economico grazie…