Un avvocato di New York ha ammesso di aver utilizzato il modello AI per la ricerca, insistendo sul fatto che non si rendeva conto che potesse mentire

L’avvocato dell’aviazione di New York Steven Schwartz potrebbe essere soggetto a sanzioni professionali dopo che si è scoperto che una memoria legale da lui presentata era piena di “false decisioni giudiziarie” e citazioni false create dal modello di linguaggio AI ChatGPT, secondo i documenti del tribunale pubblicati la scorsa settimana.

Schwartz stava usando ChatGPT per la ricerca legale per la prima volta quando lo mise al lavoro redigendo il brief di dieci pagine che sperava avrebbe convinto il giudice federale di Manhattan P. Kevin Castel a non archiviare il suo caso, ha detto alla corte in un affidavit giovedì, spiegando che lui “pertanto non era a conoscenza della possibilità che il suo contenuto potesse essere falso.

Quando è stato chiesto, ChatGPT ha persino detto a Schwartz – un avvocato con 30 anni di esperienza – che la mezza dozzina di casi citati nella presentazione legale erano reali, ha insistito. Dichiarando che “si rammarica molto” riponendo la sua fiducia nel grande modello linguistico, ha promesso di “non farlo mai in futuro” – almeno, non “senza verifica assoluta della sua autenticità.




Lo studio legale di Schwartz Levidow, Levidow & Oberman rappresentava il passeggero della compagnia aerea Roberto Mata in una causa per lesioni personali contro la compagnia aerea Avianca in merito a un incidente su un volo del 2019. Quando la compagnia aerea ha risposto alla causa presentando istanza di licenziamento, sostenendo che il termine di prescrizione era scaduto, Schwartz e la sua azienda hanno risposto con il brief confuso da ChatGPT.

Gli avvocati di Avianca si sono lamentati con il giudice che i casi citati non esistessero, ma quando il giudice Castel ha ordinato agli avvocati di Mata di fornire copie delle opinioni discutibili, lo hanno prontamente fatto – solo per gli avvocati di Avianca per ribattere che tali casi non erano apparsi nella vita reale atti giudiziari o banche dati legali.

Il giudice Castel ha risposto all’inizio di questo mese con un’ordinanza che chiedeva a Schwartz e ai suoi colleghi di dimostrare perché non avrebbero dovuto affrontare sanzioni disciplinari per l’utilizzo di un chatbot per scrivere la sua memoria legale. L’udienza è fissata per l’8 giugno.

In risposta, Schwartz ha insistito in una dichiarazione giurata depositata giovedì che aveva eseguito tutte le ricerche legali trovate nel discutibile brief, semplicemente implementando ChatGPT per “supplemento” il suo stesso lavoro. “In consultazione“con il modello del software AI, si è imbattuto nei casi fasulli e”ChatGPT ha assicurato l’affidabilità dei suoi contenuti,” Lui ha spiegato.

Ha persino allegato una trascrizione della sua conversazione con il chatbot, che apparentemente lo ha ingannato rispondendo a domande come “sono gli altri casi che hai fornito falso” con “no, gli altri casi che ho fornito sono reali e possono essere trovati in database legali affidabili.”

Sebbene le risposte di ChatGPT alle domande degli utenti appaiano spesso reali, il modello di linguaggio di grandi dimensioni funziona come un motore di probabilità, popolando una stringa di testo in base al contenuto del suo enorme database di frammenti di testo.

Puoi condividere questa storia sui social media:

Origine: www.rt.com



Lascia un Commento