Prawnik z Australii Zachodniej znalazł się w tarapatach po ujawnieniu, że używał sztucznej inteligencji do przygotowania dokumentów sądowych w sprawie imigracyjnej.

Analizując dokumenty przedstawiciel ministra ds. imigracji zorientował się, że znalazły się tam cytaty i numery z nieistniejących spraw.

Używał się AI do tworzenia dokumentów sądowych. Teraz ma kłopoty

Jak podaje serwis benchmark.pl, sprawa australijskiego prawnika została skierowana do rozpatrzenia przez Radę ds. Praktyki Prawnej. W ostatnich dniach adwokat został uznany za winnego i został zawezwany do zapłaty kosztów na rzecz rządu federalnego w wysokości 8371,30 dol.

Co adwokat miał na swoją obronę? W oświadczeniu złożonym przed sądem stwierdził, że korzystał z oprogramowania Claude AI firmy Anthropic „jako narzędzia badawczego służącego do identyfikowania potencjalnie istotnych organów oraz do ulepszania argumentacji prawnej i stanowiska”, a następnie wykorzystał narzędzie Microsoft Copilot do weryfikacji złożonych dokumentów.

Błędnie założyłem, że treści generowane przez narzędzia AI będą z natury wiarygodne, co doprowadziło do tego, że zaniedbałem niezależne sprawdzenie wszystkich cytatów w uznanych bazach danych prawnych – przekonywał prawnik.

Sędzia Arran Gerrard stwierdził, że incydent ten „pokazuje nieodłączne zagrożenia związane z poleganiem przez prawników wyłącznie na wykorzystaniu sztucznej inteligencji podczas przygotowywania dokumentów sądowych, a także sposób, w jaki wpływa to na obowiązki prawnika wobec sądu”.

Przedstawiciele Radę ds. Praktyki Prawnej podkreślają, że o ile AI oferuje unikalne możliwości, to wymaga ostrożności, a prawnicy muszą pamiętać o swoich obowiązkach etycznych wobec sądu i klientów.

To nie jest pierwszy przypadek, gdy poleganie prawnika na AI okazało się błędne. Serwis computerworld.pl przypomina, że w połowie 2023 roku

W czerwcu 2023 r. dwóch prawników i ich kancelaria zostali ukarani grzywną w wysokości 5 tys. dol. przez sędziego okręgowego na Manhattanie za cytowanie fałszywych badań prawnych wygenerowanych przez ChatGPT. Głośno było również o przypadku prawników, którzy w Wyoming złożyli pozew przeciwko Jetson Electric Bikes w związku z pożarem rzekomo spowodowanym przez deskorolkę. Powoływali się tam na zdarzenia wymyślone przez ChatGPT.

Udział
Exit mobile version