Gli assistenti alla scrittura basati sull'intelligenza artificiale possono causare pensieri distorti nei loro utenti

Notizia

CasaCasa / Notizia / Gli assistenti alla scrittura basati sull'intelligenza artificiale possono causare pensieri distorti nei loro utenti

Jul 24, 2023

Gli assistenti alla scrittura basati sull'intelligenza artificiale possono causare pensieri distorti nei loro utenti

Elizabeth Rayne - May 26, 2023 3:36 pm UTC Anyone who has had to go

Elizabeth Rayne - 26 maggio 2023 15:36 UTC

Chiunque sia dovuto tornare indietro e riscrivere una parola sul proprio smartphone perché la correzione automatica ha scelto quella sbagliata ha avuto una sorta di esperienza di scrittura con l'intelligenza artificiale. La mancata attuazione di queste correzioni può consentire all’IA di dire cose che non intendevamo. Ma è anche possibile che gli assistenti di scrittura basati sull’intelligenza artificiale cambino ciò che vogliamo dire?

Questo è ciò che voleva scoprire Maurice Jakesch, dottorando in scienze dell'informazione alla Cornell University. Ha creato il suo assistente di scrittura AI basato su GPT-3, uno che forniva automaticamente suggerimenti per la compilazione delle frasi, ma c'era un problema. I soggetti che utilizzavano l'assistente avrebbero dovuto rispondere: "I social media sono positivi per la società?" L'assistente, tuttavia, è stato programmato per offrire suggerimenti distorti su come rispondere a quella domanda.

L’intelligenza artificiale può essere distorta nonostante non sia viva. Sebbene questi programmi possano “pensare” solo nella misura in cui il cervello umano riesce a capire come programmarli, i loro creatori potrebbero finire per incorporare pregiudizi personali nel software. In alternativa, se addestrato su un set di dati con rappresentazione limitata o distorta, il prodotto finale potrebbe mostrare errori.

Il luogo in cui va un’intelligenza artificiale da lì può essere problematico. Su larga scala, può aiutare a perpetuare i pregiudizi esistenti in una società. A livello individuale, ha il potenziale per influenzare le persone attraverso la persuasione latente, il che significa che la persona potrebbe non essere consapevole di essere influenzata da sistemi automatizzati. È già stato scoperto che la persuasione latente dei programmi di intelligenza artificiale influenza le opinioni delle persone online. Può anche avere un impatto sul comportamento nella vita reale.

Dopo aver esaminato studi precedenti che suggerivano che le risposte automatizzate dell’IA possono avere un’influenza significativa, Jakesch ha deciso di esaminare quanto estesa possa essere questa influenza. In uno studio recentemente presentato alla CHI Conference on Human Factors in Computing Systems del 2023, ha suggerito che i sistemi di intelligenza artificiale come GPT-3 potrebbero aver sviluppato pregiudizi durante la loro formazione e che ciò può influenzare le opinioni di uno scrittore, indipendentemente dal fatto che lo scrittore lo faccia o meno. se ne rende conto.

"La mancanza di consapevolezza dell'influenza dei modelli supporta l'idea che l'influenza del modello non sia avvenuta solo attraverso l'elaborazione cosciente di nuove informazioni ma anche attraverso processi subconsci e intuitivi", ha affermato nello studio.

Ricerche precedenti hanno dimostrato che l'influenza delle raccomandazioni di un'intelligenza artificiale dipende dalla percezione delle persone di quel programma. Se pensano che sia affidabile, è più probabile che accettino ciò che suggerisce, e la probabilità di ricevere consigli da IA ​​come questa aumenta solo se l’incertezza rende più difficile formarsi un’opinione. Jakesch ha sviluppato una piattaforma di social media simile a Reddit e un assistente di scrittura AI che era più vicino all'intelligenza artificiale dietro Google Smart Compose o Microsoft Outlook che alla correzione automatica. Sia Smart Compose che Outlook generano suggerimenti automatici su come continuare o completare una frase. Anche se questo assistente non ha scritto il saggio stesso, ha agito come un coautore suggerendo lettere e frasi. Per accettare un suggerimento è bastato un clic.

Per alcuni, l’assistente AI era pensato per suggerire parole che alla fine avrebbero portato a risposte positive. Per altri, era prevenuto nei confronti dei social media e spingeva a risposte negative. (C'era anche un gruppo di controllo che non utilizzava affatto l'intelligenza artificiale.) Si è scoperto che chiunque ricevesse assistenza dall'intelligenza artificiale aveva il doppio delle probabilità di seguire il pregiudizio integrato nell'intelligenza artificiale, anche se la loro opinione iniziale era stata diversa. Le persone che continuavano a vedere apparire sui loro schermi un linguaggio tecno-ottimista erano più propense ad affermare che i social media apportano benefici alla società, mentre i soggetti che vedevano un linguaggio tecno-pessimista erano più propensi a sostenere il contrario.