Góc cắt: Phí pháp lý chắc chắn không hề rẻ, vì vậy khi chúng ta giữ lại đại diện pháp lý, chúng ta cho rằng chúng ta đang trả tiền cho thời gian và chuyên môn của chuyên gia pháp lý đó. Thay vì cung cấp các dịch vụ điển hình được giữ lại, một luật sư ở Manhattan đã cố gắng rút ngắn quá trình nghiên cứu bằng cách để ChatGPT trích dẫn tài liệu tham khảo trường hợp của mình cho việc nộp đơn lên Tòa án Liên bang. Và khi anh ấy phát hiện ra một cách khó khăn, việc kiểm tra thực tế là khá quan trọng, đặc biệt là khi AI của bạn có xu hướng bịa đặt sự thật.
Luật sư Steven A. Schwartz đã được một khách hàng thuê để đại diện cho họ trong một vụ kiện thương tích cá nhân chống lại Hãng hàng không Avianca. Theo đơn kiện, khách hàng của Schwartz được cho là đã bị xe đẩy phục vụ đâm vào đầu gối trong chuyến bay năm 2019 đến Sân bay Quốc tế Kennedy.
Như mọi người mong đợi trong loại tình huống pháp lý này, hãng hàng không đã yêu cầu một thẩm phán Liên bang Manhattan hủy bỏ vụ kiện, điều mà Schwartz ngay lập tức phản đối. Cho đến nay, nó giống như một cuộc trao đổi trong phòng xử án khá điển hình. Đó là, cho đến khi Schwartz, người thừa nhận chưa bao giờ sử dụng ChatGPT trước đây, quyết định rằng đã đến lúc để công nghệ lên tiếng.
Để phản đối yêu cầu của Avianca, Schwartz đã gửi một bản tóm tắt dài 10 trang trích dẫn một số quyết định của tòa án có liên quan. Các trích dẫn đề cập đến các trường hợp tương tự, bao gồm Martinez kiện Delta Air Lines, Zicherman kiện Korean Air Lines và Varghese kiện China Southern Airlines. Theo Thời báo New York‘ bài báo, trích dẫn cuối cùng thậm chí còn đưa ra một cuộc thảo luận dài về luật liên bang và “tác động thu phí của việc tự động duy trì thời hiệu.”
Mặc dù có vẻ như Schwartz có thể đã trang bị vũ khí và sẵn sàng bảo vệ vụ kiện, nhưng có một vấn đề tiềm ẩn: không vụ nào trong số đó là có thật. Martinez, Zicherman và Varghese không tồn tại. ChatGPT đã bịa đặt tất cả chúng với mục đích duy nhất là hỗ trợ việc đệ trình của Schwartz.
Một luật sư ở NY đang phải đối mặt với hình phạt tư pháp sau khi sử dụng #ChatGPT để chuẩn bị một bản tóm tắt pháp lý nộp tại tòa án Manhattan. Các trường hợp được trích dẫn bởi #ChatGPT đều là giả. Ở khía cạnh tươi sáng hơn của mọi thứ, #AI có thể không sớm thay thế luật sư. https://t.co/fHGkQZhxRk
– Tiến sĩ Gideon Christian (@ProfXtian) 27 Tháng Năm, 2023
Khi đối mặt với lỗi của Thẩm phán P. Kevin Castel, Schwartz thừa nhận rằng anh ta không có ý định lừa dối tòa án hoặc hãng hàng không. Anh ấy cũng bày tỏ sự hối hận vì đã phụ thuộc vào dịch vụ AI, thừa nhận rằng anh ấy chưa bao giờ sử dụng ChatGPT và “…không biết rằng nội dung của nó có thể là sai.” Theo tuyên bố của Schwartz, tại một thời điểm, anh ấy đã cố gắng xác minh tính xác thực của các trích dẫn bằng cách hỏi AI xem các trường hợp đó có thực hay không. Nó chỉ đơn giản trả lời bằng “có.”
Thẩm phán Castel đã ra lệnh tổ chức phiên điều trần tiếp theo vào ngày 8 tháng 6 để thảo luận về các biện pháp trừng phạt tiềm năng liên quan đến hành động của Schwartz. Lệnh của Castel đã trình bày chính xác các tình huống mới kỳ lạ là “một tình huống chưa từng có”, tràn ngập “các quyết định tư pháp không có thật, với các trích dẫn không có thật và các trích dẫn nội bộ không có thật.” Và trong một vòng xoáy nghiệt ngã của số phận, trường hợp của Schwartz rất có thể sẽ trở thành một trong những trích dẫn được sử dụng trong các vụ kiện liên quan đến AI trong tương lai.