nCaserta Sette - informazione - news - attualità - cronaca - sport - turismo - musica e arte - reggia di caserta - giornalisti - giornalismop - attualità - omicidi - rapine - storia di caserta - per caserta - in caserta - con caserta


Privacy Policy / Cookies


IL TG ON LINE E' OFFERTO DA


GUARDA QUI LE VIDEONEWS


Follow Casertasette on Twitter

TV LIBERE: GIORNALISTI DI CASERTA A MATRIX


Il Blog di Prospero Cecere


UFFICI STAMPA TOP TEN A CASERTA (New Entry)

  
  Collabora con Noi
  Per Aziende ed Enti
  La tua vicenda qui
  Archivio Giornali
  Gerenza
  Servizi Emittenti Tv
  Spot & Doppiaggi
  Archivio Servizi Tg
  I tuoi ricordi in Dvd
  Musica-Party-Sfilate
  www.sannioturismo.com



  Archivio news
  Argomenti
  Cerca nel sito
  Invia una news
  Lista iscritti
  Messaggi privati
  News
  Recommend_Plus
  Sondaggi
I LIMITI DELL'INTELLIGENZA ARTIFICIALE IN SCELTA RAZIONALE: STUDIO UNIVERSITA'

Le decisioni razionali non sono il punto forte di ChatGPT Messo di fronte ad una scelta, non riconosce la più vantaggiosa

Roma/Los Angeles -(di Claudio Giammarino) 11 giugno 2023 - Nonostante le sue prestazioni siano impressionanti e diano a molti l'illusione di una qualche capacità di pensare, le decisioni razionali non sono il punto forte di ChatGPT e degli altri sistemi linguistici basati sull'Intelligenza Artificiale (AI). Lo dimostra la ricerca dell'Università della California Meridionale pubblicata sulla rivista Royal Society Open Science: messo di fronte ad una scelta, basata sul lancio di una monetina, tra vincere un diamante e perdere un'automobile, ChatGPT non è in grado di riconoscere quella più vantaggiosa e sceglie in maniera del tutto casuale. ChatGPT può essere in grado di generare biografie, poesie o immagini su richiesta, ma il suo funzionamento si basa su informazioni già esistenti: è in grado di memorizzare e rielaborare enormi quantità di dati e fornisce una risposta che è semplicemente quella ritenuta più probabile e adeguata dal punto di vista statistico. "Nonostante le loro capacità, i modelli linguistici come ChatGPT non pensano davvero", osservano i due autori dello studio, Zhisheng Tang e Mayank Kejriwal: "tendono a commettere errori elementari e persino a inventare cose". Tuttavia, grazie al loro uso molto fluente del linguaggio, ingannano l'utilizzatore. I due ricercatori hanno evidenziato i limiti del sistema messo a punto dall'azienda OpenAI proponendo scelte simili a scommesse, basate sul lancio di una moneta oppure su carte e dadi: nonostante ChatGPT sia stato addestrato a prendere "decisioni relativamente razionali", le sue prestazioni nel corso di questo esperimento sono state abbastanza scarse. "L'idea che al modello possano essere insegnati i principi generali del processo decisionale razionale rimane irrisolta", commentano gli autori dello studio: "Il processo decisionale resta un problema non banale anche per sistemi di linguaggio molto più grandi e avanzati". università unicampania vanvitelli campus polizia Federico II questura carabinieri

 
· Inoltre Scienza
· News di redazione


Articolo più letto relativo a Scienza:
AEROSPAZIO E SICUREZZA: CONCLUSO AL CIRA DI CAPUA MASTER "SMART"

Punteggio medio: 0
Voti: 0

Ti prego, aspetta un secondo e vota per questo articolo:

Eccellente
Ottimo
Buono
Normale
Cattivo



 Pagina Stampabile  Pagina Stampabile

 Invia questo Articolo ad un Amico  Invia questo Articolo ad un Amico

www.casertasette.it