Issue link: https://trendsintech-japan.mouser.com/i/1540382
いるため発生します。例えば、画像 認識用に設計された深層ニューラル ネットワークは、入力データからさ まざまな特徴を抽出する多数の層で 構成されています。これらの層内の 相互作用は数学的に複雑であり、専 門家でさえも特定の出力に至る正確 な経路を追跡することは困難です。 さらに、AI モデルはそのパターン を学習し予測を行うために、膨大 な量のトレーニングデータに依存 することが多いものです。AI が識 別する関係性や相関性は非常に多面 的であり、人間が簡単に解釈する ことは困難です。その結果、ステー クホルダーは、その意思決定プロ セスがほとんど謎に包まれた強力な ツールを手にすることになります。 AI のブラックボックス性は、企業 やステークホルダーがテクノロジー に置く信頼に大きな影響を与えま す。AI の意思決定プロセスを透明 化しなければ、AI がトレーニング データに存在するバイアスを永続 させていないことを保証することは 困難です。例えば、AI を用いて融 資の申し込みを審査する金融機関 は、AI が明確な理由を示さずに融 資を拒否した場合、申請者を不満 にさせ、差別であるとの規制当局 の監視を受ける可能性があります。 実際の例としては、大手テクノロ ジー企業の採用 AI が、同社の歴史 的に男性優位の採用パターンを反 映したデータで訓練されていたた め、女性候補者よりも男性候補者を 優先したケースがあります。 3 透明 性の欠如により、このバイアスの特 定が遅れ、評判の低下や倫理的な懸 念が生じました。このような公的な 事件は、透明性の欠如が AI ソリュー ションの導入に対する不信感や躊躇 につながり、AI の能力を活用する上 で大きな障壁となり、人間と AI シス テムの連携関係を阻害する可能性が あることを浮き彫りにしています。 AIの幻覚という課題に直面する AI の幻覚とは、AI システムが、誤 った、無意味な、あるいは完全に捏 造された出力を、妥当で確信に満ち た応答として提示する現象を指しま す。これらの幻覚は、データから学 習したパターンに基づいて予測や応 答を生成する、高度な大規模言語モ デルや生成型 AI システムでよく発 生します。例えば、AIチャットボッ トは、存在しない出来事に関する質 問に対して、架空の日付や数字を交 えた詳細な回答を提供し、ユーザー は外部からの検証なしではその不正 確さを判断することが困難です。 例えば、2023年、ある弁護士は、AI 言語モデルが提供した情報に依存し た結果、法的文書に存在しない裁判 例を誤って引用してしまいました。 4 AI は、自信を持って事件名、引用文 献、さらには完全に捏造した要約ま で生成し、弁護士はそれらを公式の 裁判書類に含めました。その後、裁 判所はこれらの事件が存在しない ことを発見し、関係した弁護士は職 業上の恥辱と処分を受けました。 このような幻覚は、その内容が正 確であるように見えるため特に問 題であり、ユーザーは提供され た情報を疑問視する専門知識を 持っていない場合があります。 AIの幻覚がもたらすリスクは、特 に AI システム重要な意思決定プロ セスに組み込まれている場合、重 大です。不正確な出力は、誤った 事業戦略、誤った政策決定、また は虚偽の情報の一般市民への流布 につながる可能性があります。法 的事例では、弁護士が AI によっ て生成された誤った情報に依存し たことで、訴訟が危険にさらさ れ、倫理的な問題が発生しました。 さらに、AI によって生成されたコ ンテンツが、将来のモデルのトレー ニングデータセットにフィードバ ックされるケースが増えているた め、リスクはさらに高まっていま す。幻覚が識別され、フィルタリン グされない場合、それらは新しい AI システムを学習するためのデー タの一部となり、エラーが永続化 し、増幅されます。その結果、雪 だるま式にエラーが増え、AI 技 術の全体的な品質と信頼性が損な われるという悪循環に陥ります。 幻覚の悪循環を防ぐ 企業は、AI の幻覚が拡散すること を防ぐため、コンテンツの作成お よびデータのキュレーションにお いて、堅固な人的監視を維持しな ければなりません。これには、AI の出力を定期的に監査し、情報 を使用または公開する前にその正 確性を確認するためのプロトコ ルを実施することが含まれます。 継続的モニタリング AI システムの継続的な評価は極め て重要です。パフォーマンスを継 続的に監視することで、組織は AI モデルやそのトレーニングデータ に潜在的な問題を示すエラーや不 正確さのパターンを特定すること ができます。この予防的なアプロ ーチにより、問題が深刻化する前 にタイムリーに介入して問題を修 正することが可能になります。 フィードバックループ フィードバックメカニズムを確立する ことで、AI システムは人間の指導の もとでミスから学習することができ ます。エラーが検出されたら、それ をシステムにフィードバックしてア ルゴリズムを調整し、将来のパフォー マンスを向上させる必要があります。 この反復プロセスにより、AI モデル が時間をかけて改良され、幻覚が繰 り返される可能性が低くなります。 | 14

