ChatGPTで資料作成、実在しない判例引用 米国の弁護士
https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/
※ こういう辺りが、「生成型AI」の怖いところだ…。
※ 特に、判例法中心のアングロサクソンの法体系においては…。
※ 「司法試験に合格」「医師免許試験に合格」と言ったところで、「本物の弁護士」「本物の医師」になれるわけのものでも無い…。
『【ニューヨーク=吉田圭織】米東部ニューヨーク州の弁護士が審理中の民事訴訟で資料作成に米オープンAIの生成AI「Chat(チャット)GPT」を利用した結果、存在しない判例を引用してしまったことが問題となっている。米紙ニューヨーク・タイムズなどが報じた。
問題が起きたのは、米ニューヨーク行きのフライトで食事配膳用カートが当たってけがをしたとする男性客が南米コロンビアのアビアンカ航空を訴えた訴訟だった。
資料で引用された判例が見つからなかったため、ニューヨーク州の連邦裁判所のカステル裁判官が確認したところ、弁護士がChatGPTを使っていたことが発覚した。弁護士は資料に6件のデルタ航空やユナイテッド航空などが関連しているとされた実在しない判例を引用していた。
同裁判官は「インチキな引用を使ったインチキな司法判断が記述された資料が提出された」と指摘するとともに「前例のない状況に置かれている」と説明した。弁護士の懲戒をするかどうかを判断するために6月8日に審理を開く予定だ。
5月24日に署名した供述書で弁護士は「非常に後悔しており、今後は正当性を検証せずに(ChatGPTは)絶対に利用しない」と伝えた。「情報源として信頼できないことが明らかになった」と書いた。供述書には弁護士が判例について情報の出どころなどをChatGPTに確認するやり取りも含まれた。
【関連記事】
・ChatGPT、法務のイロハ 生成物の著作権侵害に注意
・ChatGPT、世界こう変えた 10の数字で振り返る公開半年
・課題も多い生成AI これからどう付き合うべき? 』