Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov’è il il problema?
Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov’è il il problema?
@mau@poliversity.it @aitech@feddit.it se non si può escludere che il LMM che si sta usando in un dato momento sia inaffidabile nelle risposte, allora ogni volta che se ne usa uno è necessario verificarne indipendentemente le risposte, quindi le sue risposte (hanno valore semantico nullo, e inoltre) fanno sprecare tempo e risorse 🤷
@6al no. Se io ci metto 10t per trovare una risposta, il chatbot ci mette t sbagliando nel 10% dei casi e io ci metto t a verificare la risposta mi conviene usare il chatbot. @aitech
@mau@poliversity.it @aitech@feddit.it ma devi sapere in anticipo che è così! altrimenti rischi di fidarti di un chatbot che non ha quelle caratteristiche (tecnicamente direi “non soddisfa quelle specifiche di prestazione”)
@6al quello in genere lo puoi stimare a priori.
@aitech
@mau@poliversity.it @aitech@feddit.it servirebbe un’Authority che stabilisse la % di affidabilità delle risposte, come fanno (o facevano?) gli scienziati quando pubblicano i loro paper 😇
Altrimenti facciamo a fidarci …