"Storie di interazioni con #ChatGPT finite molto male

Suicidi, avvelenamenti, suggerimenti di buttarsi nel vuoto: negli ultimi mesi vari casi di cronaca hanno mostrato i pericoli di chiedere consiglio alle #AI"

Leggi tutto: https://ilpost.link/Npje7bWJci

@aitech

  • lgsp@feddit.it@feddit.it
    link
    fedilink
    Italiano
    arrow-up
    1
    ·
    edit-2
    19 days ago

    Articolo interessante, ma ancora la narrazione sugli LLM è troppo distorta e ingannevole, anche su ilPost

    Tra i problemi più noti delle intelligenze artificiali c’è il fatto che non si rendano conto di quando non sanno qualcosa, e possano quindi fornire risposte inventate e totalmente assurde come se fossero le più naturali e di buon senso del mondo: il fenomeno delle cosiddette “allucinazioni”

    Bisogna fare passare che gli LLM non hanno consapevolezza, e non hanno conoscenza. Non possono sapere né tantomeno inventare alcunché.

    Possono solo generare testo che sia il più possibile appropriato al prompt precedente, indipendentemente dal fatto che i contenuti siano veri o falsi