banner

Blog

Sep 19, 2023

ChatGPT potrebbe trasformare il mondo accademico. Ma non è ancora uno studente A+: NPR

Emma Bowmann

Inserisci un messaggio in ChatGPT e diventerà il tuo assistente virtuale personale. OpenAI/Screenshot di NPR nascondi didascalia

Inserisci un messaggio in ChatGPT e diventerà il tuo assistente virtuale personale.

Perché fare i compiti quando un chatbot può farlo per te? Un nuovo strumento di intelligenza artificiale chiamato ChatGPT ha entusiasmato Internet con le sue capacità sovrumane di risolvere problemi di matematica, sfornare saggi universitari e scrivere articoli di ricerca.

Dopo che lo sviluppatore OpenAI ha rilasciato al pubblico il sistema basato su testo il mese scorso, alcuni educatori hanno lanciato l'allarme sul potenziale che tali sistemi di intelligenza artificiale hanno di trasformare il mondo accademico, nel bene e nel male.

"L'intelligenza artificiale ha praticamente rovinato i compiti", ha detto su Twitter Ethan Mollick, professore alla Wharton School of Business dell'Università della Pennsylvania.

Lo strumento è stato un successo immediato tra molti dei suoi studenti, ha detto a NPR in un'intervista su Morning Edition, e il suo utilizzo più immediatamente ovvio è un modo per imbrogliare plagiando il lavoro scritto dall'intelligenza artificiale, ha detto.

A parte le frodi accademiche, Mollick ne vede i vantaggi anche come compagno di apprendimento.

Lo ha usato come assistente del suo insegnante, per aiutarlo nella creazione di un programma, una lezione, un compito e una rubrica di valutazione per gli studenti MBA.

"Puoi incollare interi documenti accademici e chiedergli di riassumerli. Puoi chiedergli di trovare un errore nel tuo codice, correggerlo e dirti perché hai sbagliato", ha detto. "È questo moltiplicatore di abilità, che penso non riusciamo a capire, che è assolutamente sorprendente", ha detto.

Ma l’assistente virtuale sovrumano, come ogni tecnologia AI emergente, ha i suoi limiti. Dopotutto, ChatGPT è stato creato dagli esseri umani. OpenAI ha addestrato lo strumento utilizzando un ampio set di dati di conversazioni umane reali.

"Il modo migliore per pensarci è che stai chiacchierando con uno stagista onnisciente e desideroso di compiacerti che a volte ti mente", ha detto Mollick.

Si trova anche con fiducia. Nonostante il suo tono autorevole, ci sono stati casi in cui ChatGPT non ti dice quando non ha la risposta.

Questo è ciò che ha scoperto Teresa Kubacka, una scienziata di dati con sede a Zurigo, in Svizzera, quando ha sperimentato il modello linguistico. Kubacka, che ha studiato fisica per il suo dottorato di ricerca, ha testato lo strumento interrogandolo su un fenomeno fisico inventato.

"Gli ho chiesto deliberatamente qualcosa che pensavo di sapere non esistesse, in modo che potessero giudicare se in realtà ha anche la nozione di cosa esiste e cosa non esiste", ha detto.

ChatGPT ha prodotto una risposta così specifica e plausibile, supportata da citazioni, ha detto, che ha dovuto indagare se il falso fenomeno, "un elettromagnone cicloidale invertito", fosse effettivamente reale.

Quando guardò più da vicino, anche il presunto materiale originale era falso, disse. C'erano nomi di noti esperti di fisica elencati – i titoli delle pubblicazioni di cui presumibilmente erano autori, tuttavia, erano inesistenti, ha detto.

"È qui che diventa pericoloso", ha detto Kubacka. "Nel momento in cui non ci si può fidare dei riferimenti, si mina anche la fiducia nel citare la scienza, di qualsiasi genere", ha detto.

Gli scienziati chiamano queste false generazioni “allucinazioni”.

"Ci sono ancora molti casi in cui fai una domanda e ti darà una risposta che sembra davvero impressionante ma che è semplicemente completamente sbagliata", ha detto Oren Etzioni, il CEO fondatore dell'Allen Institute for AI, che ha gestito la ricerca no-profit fino al 2019. recentemente. "E, naturalmente, questo è un problema se non si verificano o corroborano attentamente i fatti."

Gli utenti che sperimentano il chatbot vengono avvisati prima di testare lo strumento che ChatGPT "potrebbe occasionalmente generare informazioni errate o fuorvianti". OpenAI/Screenshot di NPR nascondi didascalia

CONDIVIDERE