AI活用におけるリスク抽出

1.法務部員とAI

AI契約書レビューやAI文字起こしなど、AIは法務部員の業務の大きな助けとなってくれます。しかし、AIの利用には、情報漏洩のリスクや、不正確な情報が出力されるリスクがあり、リスクを正確に理解して対処しなければ、業務の助けどころか、多大な損害が発生しかねません。

2.リスクを知るのではなく仕組みを理解する

安心してAIを活用するために「AIにどのようなリスクがあるかを知ろう」ということがよく言われます。しかし、リスクを知るという態度でいる限り、いつまでも行き当たりばったりです。失敗事例を共有して同じ失敗を繰り返さないことは重要ですが、そもそも失敗しない方が良いに決まっています

そもそも、VUCAと呼ばれる現代では、定型的なリスクよりも、新たなリスクへの対処が求められます。そのためには過去を参照する態度では不足なのです。

AIを活用したいならば「AIの仕組みを理解する」ことが必要です。仕組みを理解すれば、どのようなリスクがあるのかは自ずと見えてきます

3.今は第4次AIブーム

AIはその名の通り人工知能です。1950年代にアメリカで概念が誕生してブームになりました。1980年代に、マシンパワーの向上によってAIが実装可能になり、第2次ブームになりました。この第2次ブームの産物は今も社会のいたるところで使用されています。2000年代にはインターネットの普及とともに第3次ブームになり、2022年ころから生成AIが登場して第4次ブームになりました。

AIの歴史はマシンパワーの歴史です。理論上実現可能であったものが現実的な予算で実装可能になってきただけなのですが、そもそもAIはSFの定番ネタであるように無限の可能性を備えているので、それが顕在化すれば実務へのインパクトは当然に大きくなります。

4.AIは人工知能

AIは人工知能であり、人間の脳を模して設計されています

人間の脳神経では電気信号が伝達されており、同じ動作を繰り返すと特定の経路を電気が通りやすくなり、反応が早くなります。これが学習です。AIも同様に反復を通じて学習します。

AIによる犬と狼の区別の学習プロセスを考えます。犬と狼の写真を大量に用意して、この写真の動物は犬で、この写真の動物は狼だとラベルをつけてAIに学習させます。すると、AIは、犬と狼の特徴を割り出して、背景が白いと狼である可能性が高いと判断するようになります。

これをAIの欠点であるかのように語る者がいますが、そうではありません。動物学者が動物の種類を判断する際には、生息地域も判断材料にするはずです。AIは人工知能なのです。

これを逆手に取ると、背景が白い犬の写真を大量に用意して学習させれば、馬鹿なAIを作ることができます。

馬と鹿の区別でも、学習データをいじることで馬鹿なAIを作れます。意図して雄の鹿の写真ばかりを学習させれば、単純に、角があれば鹿だと考えるようになり、おそらく雌の鹿を馬だと判断するようになるでしょう。

AIの質は学習データの質に大きく左右されます

5.LLMの仕組み

法務部員は、AIの中でも、LLMと呼ばれるものを扱うことが多いはずです。LLMとは大規模言語モデルの略称であり、人間が用いる自然言語を扱えます。具体的には、文章を単語単位で区切って、各単語がどのような単語に結びつきやすいかを考えます。この度は、ご迷惑をおかけし、誠に…、これに続く言葉を推測するのがLLMです。本質は連想ゲームに過ぎません

LLMに限らず、AIは確率的に推論を行います。そのため、同じ質問を連続して行えば、その度に回答が異なるはずです。

法務部員には確実な回答が求められます。わからないことはわからない、可能性が高いと考えるならば可能性が高い、と答える必要があります。法務部員にAIの出力を鵜呑みにすることは許されませんこれからの法務部員には、AIの出力の正誤を判断できるまでの高度な能力が求められます。

6.インターネットとAI

AIはマシンパワーを必要とするので、クラウドサービスとして提供されることが一般的です。そのため、ユーザーが入力した情報(プロンプトやデータファイル)はインターネットを通じて送信されます。送信されると言うことは、通信が暗号化されていなければ盗聴されますし、サービス提供業者に利用される可能性があります。むしろ、ほとんどのAIは、送信された情報を学習に利用しています。無料で提供されるAIが多いのは、入力された情報を学習に用いることができるからです。

入力した情報が学習に利用されるということは、他で出力される可能性があるということです。それが情報漏洩につながります。

7.仕組みを理解すればリスクがわかる

AIは学習を特徴とするのだから入力した情報は学習に利用される可能性がある、AIは確率的推論をするのだから出力の正確性に期待してはいけない、ということを自分で考えられるようになることが大切です。他人の失敗の共有を待つ姿勢ではVUCA時代の法務部員は務まりません。