"Storie di interazioni con #ChatGPT finite molto male
Suicidi, avvelenamenti, suggerimenti di buttarsi nel vuoto: negli ultimi mesi vari casi di cronaca hanno mostrato i pericoli di chiedere consiglio alle #AI"
Leggi tutto: https://ilpost.link/Npje7bWJci
Articolo interessante, ma ancora la narrazione sugli LLM è troppo distorta e ingannevole, anche su ilPost
Tra i problemi più noti delle intelligenze artificiali c’è il fatto che non si rendano conto di quando non sanno qualcosa, e possano quindi fornire risposte inventate e totalmente assurde come se fossero le più naturali e di buon senso del mondo: il fenomeno delle cosiddette “allucinazioni”
Bisogna fare passare che gli LLM non hanno consapevolezza, e non hanno conoscenza. Non possono sapere né tantomeno inventare alcunché.
Possono solo generare testo che sia il più possibile appropriato al prompt precedente, indipendentemente dal fatto che i contenuti siano veri o falsi