นักวิจัยสหรัฐฯ เตือนปัญหาจาก "เครื่องมือ AI" ในการวิจัยทางกฎหมาย

2024-06-11 11:30:17

นักวิจัยสหรัฐฯ เตือนปัญหาจาก "เครื่องมือ AI" ในการวิจัยทางกฎหมาย

Advertisement

ซาคราเมนโต, 10 มิ.ย. (ซินหัว) — ผลการศึกษาจากคณะนักวิจัยประจำมหาวิทยาลัยสแตนฟอร์ดและมหาวิทยาลัยเยลของสหรัฐฯ ตั้งข้อวิตกกังวลเกี่ยวกับความน่าเชื่อถือของเครื่องมือปัญญาประดิษฐ์ (AI) ที่ใช้ในการวิจัยทางกฎหมาย พร้อมกระตุ้นเตือนเหล่านักกฎหมายระมัดระวังผลลัพธ์จากการพึ่งพาปัญญาประดิษฐ์

การศึกษา “ไร้ซึ่งภาพหลอน? การประเมินความน่าเชื่อถือของเครื่องมือวิจัยกฎหมายด้วยปัญญาประดิษฐ์ชั้นนำ” ได้ตรวจสอบเครื่องมือปัญญาประดิษฐ์ต่างๆ ที่นักกฎหมายใช้ในการวิจัยทางกฎหมาย เพื่อประเมินความน่าจะเป็นของการผลิตข้อมูลเท็จหรือ “ภาพหลอน”

ทีมผู้เขียนผลการศึกษานี้ที่เผยแพร่ผ่านเว็บไซต์มหาวิทยาลัยสแตนฟอร์ดระบุว่าบรรดานักกฎหมายใช้เครื่องมือปัญญาประดิษฐ์เพื่อช่วยเหลือการปฏิบัติงานทางกฎหมายเพิ่มขึ้น ทว่าโมเดลภาษาขนาดใหญ่ที่ใช้ในเครื่องมือเหล่านี้มีแนวโน้มจะ “สร้างภาพหลอน” จนเกิดภัยเสี่ยง

บริษัทบางแห่งที่สร้างเครื่องมือปัญญาประดิษฐ์เหล่านี้อ้างว่าพวกเขาแก้ไขปัญหาดังกล่าวแล้ว แต่คณะนักวิจัยกลับพบว่าคำกล่าวอ้างของบริษัทเหล่านั้น “เกินจริง” โดยการศึกษานี้ทดสอบเครื่องมือยอดนิยมจากเล็กซิสเน็กซิส (LexisNexis) และทอมสัน รอยเตอร์ส (Thomson Reuters) และพบข้อผิดพลาดร้อยละ 17-33 ต่อครั้ง

ปัญหาการผลิตข้อมูลเท็จหรือ “ภาพหลอน” บางรายการเกิดขึ้นเมื่อเครื่องมือปัญญาประดิษฐ์อ้างอิงตัวบทกฎหมายที่ไม่มีอยู่จริงหรือตีความบรรทัดฐานทางกฎหมายผิดพลาด

ผลการศึกษานี้ระบุว่ามีบริษัทกฎหมายขนาดใหญ่ที่สุดในสหรัฐฯ อย่างน้อย 41 แห่งจากทั้งหมด 100 อันดับแรก ได้เริ่มต้นใช้ปัญญาประดิษฐ์ในการฏิบัติงานของพวกเขา เมื่อนับถึงเดือนมกราคม 2024

ทีมผู้เขียนผลการศึกษานี้เรียกร้องนักกฎหมายควบคุมและตรวจสอบผลลัพธ์ที่ผลิตโดยปัญญาประดิษฐ์ พร้อมกระตุ้นเตือนผู้ให้บริการเครื่องมือปัญญาประดิษฐ์รักษาความถูกต้องแม่นยำของผลิตภัณฑ์และแสดงหลักฐานสนับสนุนการรักษาความถูกต้องแม่นยำ