November 26, 2024

Advocaten die via ChatGPT hallucinogene fictieve zaken hebben aangehaald, moeten • het register betalen

Advocaten die via ChatGPT hallucinogene fictieve zaken hebben aangehaald, moeten • het register betalen

Advocaten die gerechtelijke documenten hebben ingediend waarin zaken worden genoemd die zijn uitgevonden door OpenAI-dochter ChatGPT, zijn officieel geslagen door een rechter in New York.

Rechter Kevin Castle deed donderdag uitspraak Opinie en beschikking inzake straffen [PDF] dat ontdekte dat Peter LoDuca, Steven A. Schwartz en het advocatenkantoor Levidow, Levidow & Oberman PC afstand deden van hun verantwoordelijkheden toen ze niet-bestaande gerechtelijke adviezen indienden met valse citaten en citaten gegenereerd door de ChatGPT-tool voor kunstmatige intelligentie, en bleven vervolgens stand-by staan de valse meningen nadat de rechterlijke bevelen het bestaan ​​​​ervan in twijfel hadden getrokken.

Ja, je hebt het goed begrepen: advocaten vroegen ChatGPT om voorbeelden van zaken uit het verleden om in hun juridische dossiers op te nemen, de bot heeft zojuist enkele acties uit het verleden geconfigureerd en de advocaten hebben die geselecteerd om hun argumenten te helpen presenteren en alles zoals normaal te presenteren. Dit zal niet vliegen.

ChatGPT is gebouwd door OpenAI en is een groot taalmodel dat is verbonden met een chatinterface die reageert op tekstprompts en vragen. Het is gemaakt via een trainingsproces waarbij grote hoeveelheden tekst worden geanalyseerd en potentiële patronen statistisch worden gedetecteerd. Vervolgens reageert het op de invoer met mogelijke uitvoerpatronen, wat vaak logisch is omdat het lijkt op een bekend trainingsscript. Maar ChatGPT staat erom bekend, net als andere grote taalparadigma’s, te hallucineren – om dingen verkeerd te spellen. Het is duidelijk dat niet iedereen daar de memo over heeft gekregen.

Is dit een goed moment om aan te tonen dat Microsoft agressief zijn OpenAI-softwarepakket voor GPT op de markt brengt, het dieper in zijn cloud- en Windows-imperium drijft en het de bedrijfsgegevens van mensen laat verliezen? Dezelfde modellen waarvan je je kunt voorstellen dat rechtszaken en overlijdensberichten zijn geweest beschreven Ongelooflijk beperkt door de maker van het programma? dat ChatGPT?

rooster

Eind mei daagde rechter Castell advocaten uit die eiser Roberto Matta vertegenwoordigen, een passagier die gewond was geraakt tijdens een Avianca-vlucht in 2019, om uitleg te geven wanneer advocaten van de luchtvaartmaatschappij suggereerden dat de advocaat van de tegenpartij grove oordelen had aangehaald.

ChatGPT heeft niet alleen nepstaten uitgevonden die voorheen niet bestonden, zoals “Varghese tegen China Southern Airlines Limited, 925 F.3d 1339 (Circuit 11. 2009)Maar, zoals Schwartz de rechter vertelde in zijn aankondiging van 6 juni, loog het afwijkende AI-model ook toen hem werd gevraagd naar de waarheidsgetrouwheid van het citaat. en advocaten van de verdediging daarentegen.

Screenshot van ChatGPT dringt aan op geen status… Klik om te vergroten

De advocaten verontschuldigden zich uiteindelijk, maar de rechter vond hun berouw niet overtuigend omdat ze hun wangedrag niet toegaven toen de verdediging de zaak aanvankelijk op 15 maart 2023 aan de orde stelde. In plaats daarvan wachtten ze tot 25 mei 2023, nadat de rechtbank een om de reden aan te tonenOm toe te geven wat er is gebeurd.

“Veel schade is het gevolg van het indienen van valse meningen”, schreef rechter Castle bij het opleggen van de straffen.

“De tegenpartij verspilt tijd en geld door misleiding aan het licht te brengen. De rechtbank besteedt tijd aan andere belangrijke inspanningen. De cliënt kan argumenten worden ontzegd op basis van geldige jurisprudentie. Er is potentiële schade aan de reputatie van ten onrechte genoemde rechters en rechtbanken als auteurs van valse meningen en aan de reputatie van een partij die worden toegeschreven aan fictief gedrag. Het bevordert een aanfluiting van de advocatuur en het Amerikaanse rechtssysteem. Een potentiële procederende partij kan in de verleiding komen om een ​​rechterlijke uitspraak aan te vechten door onoprechte twijfel over de authenticiteit ervan te beweren. “

Een potentiële procederende partij kan in de verleiding komen om een ​​rechterlijke uitspraak aan te vechten door een onoprechte claim van twijfel te maken

Om de advocaten te straffen, beval de rechter elk van hen een boete van $ 5.000 aan de rechtbank te betalen, hun cliënt op de hoogte te stellen en elke echte rechter op de hoogte te stellen die ten onrechte was geïdentificeerd als de auteur van genoemde nepzaken.

Samen met de rechter ontzetting [PDF] Schadeclaim van eiser Roberto Matta tegen Avianca omdat er meer dan twee jaar was verstreken tussen de verwonding en de rechtszaak, een door Conventie van Montreal.

zei Stephen Wu, aandeelhouder van Silicon Valley Law Group en voorzitter van de American Bar Association Nationaal Instituut voor Kunstmatige Intelligentie en Roboticain een telefonisch interview met loggen.

Wu zei dat Justice Castle duidelijk maakte dat technologie een rol speelt in de advocatuur toen hij schreef: “Er is niets inherent ongepasts aan het gebruik van een vertrouwde AI-tool voor hulp.”

Maar deze rol, zei Wu, is vanaf dat moment noodzakelijkerwijs onderworpen aan juridische professionals Artikel 11 Een federale regel van burgerlijke rechtsvordering vereist dat advocaten verantwoordelijkheid nemen voor de informatie die aan de rechtbank wordt verstrekt.

“Als advocaten, als we AI willen gebruiken om ons te helpen dingen te schrijven, hebben we iets nodig dat is getraind in legaal materiaal en grondig is getest”, zei Wu. “Een advocaat is altijd verantwoordelijk voor het werkproduct. Je moet je bronnen checken.”

Het bevel van de rechter, als kijker, bevat de tekst van Varghese’s verzonnen zaak boven een watermerk dat zegt: “Niet citeren of citeren als wettelijke autoriteit.”

Toekomstige grote taalmodellen die zijn getraind op frequente mediale aanwijzingen van de fictieve casus, kunnen de leugen echter iets langer in leven houden. ®