Methods_JP
mouser-methods-v6i1-confrontingai-digital-8.5x11in-jp
Issue link:
https://trendsintech-japan.mouser.com/i/1540382
Contents of this Issue
Navigation
0
next page
back cover
Page 0 of 43
AIに立ち向かう
Articles in this issue
Cover
Image
はじめに
マット・キャンベルおよびヴィンス・ソスコ、マウザー・エレクトロニクス
人工知能(AI)はもはや遠い未来の話ではありません。AIはすでに現実のものとなり、産業、ワークフロー、そして日常生活を積極的に形作っています。今日、AIと向き合うということは、独創性、意思決定、人間の主体性に関する私たちの固定観念に挑む、急速に進化する力に対峙することを意味します。AI が何ができるかだけでなく、テクノロジー、倫理、そして私たちの共通の未来に与える影響について考察する上で、AI が何をするべきかを問う必要があります。これは技術者だけの議論ではなく、政策立案者、ビジネスリーダー、教育者、そし
、 AIを深く掘り下げたときは、それはまだ仮説の域を出ないものでした。その号の Methods で私たちは、
前回
当時出現しつつあった新しい概念としての AI を理解しようと努力しましたが、その努力は、形は変わっても今も続いています。今日、AI は世界の株式市場を上下させる潮流となっています。あらゆる業界で最も注目されているキーワードであり、企業は AI が変革をもたらす力になると確信して、数十億ドルの投資を行っています。
あらゆるブームは、それと同じ大きさで反対の懐疑の波を生み出します。ブームの陰で、AI は労働者と雇用主の日常を具体的にどのように変えていくのでしょうか?企業向け AI アプリケーションの新しさと AI アルゴリズムの隠れた層により、2 つの未知数を含む方程式が生まれています。エンジニアは AI ツールを手にしていますが、次はそれらを使って解決すべき問題を見つける必要があります。AIでワークフローを向上させることへの期待が高まる中、すべての労働者は最終的に自分自身に問わなければなりません。「このアルゴリズム
AI が産業、医療、農業、輸送など、既存のシステムに統合されるにつれて、それは長年にわたる知識構造や規制の枠組みと衝突します。私たちは、その前例のない能力と、データの偏り、自動化開発におけるジレンマ、インテリジェントシステムへの依存度の高まりによる社会的影響といった現在の限界とを調和させなければなりません。同時に、AI がもたらす生産性の向上、より深い洞察、かつては克服不可能とされていた課題の解決といった、非常に現実的な機会を、恐怖や懐疑心によって覆い隠してはなりません。慎重さと進歩のバランスを取ることは
AI は、ハイパースケールデータセンターの力を私たちの手に届けます。スーパーコンピューティングリソースの民主化は、慎重な対応を優先すべきか、それとも制約のないイノベーションを優先すべきかという疑問を投げかけます。これらの疑問は、このような前例のないケースに対応するように設計されていない法的・倫理的枠組みでは、答えを出すことが困難です。AI の各イテレーションがリリースされるたびに、私たちは、この技術が社会、経済、倫理のより広い文脈にどのように適合するかを理解するためのイテレーションも行う必要があります。
AIを単なる技術トレンドとして無視することは、もはや選択肢ではありません。問題は、AIと関わるかどうかではなく、どのように責任を持って関わるかです。現在私たちが下す選択——AIの開発、規制、応用に関する選択——は、今後数十年にわたるその影響の軌道を決定づけるでしょう。変化に抵抗するのではなく、AIの潜在能力を活用しつつ、透明性、公平性、人間の福祉を優先するシステムを設計する方法を探求する必要があります。本号のMethodsは、これらの緊急の課題を探求し、現在の状況と今後の方向性について洞察を提供します。
興奮と懐疑的な見方の裏には、AI が現実のものとなっているという事実があります。今号では、エンジニアとして、そして人間として、AI を自分の生活の中に位置付けるお手伝いをしたいと考えています。業界の専門家による深い技術解説に加え、技術の世界と分析の世界の両方に精通した専門家も登場します。今号は、曖昧な AI の世界の実用的な知識へと凝縮するもう一つのステップであり、皆様が AI に思慮深く、情報に基づいた対応ができるようお手伝いいたします。
Figure
著者について
マット・ビンス(Matt Vince)氏は、マウザー・エレクトロニクスのテクニカルマーケティングエンジニアです。テキサス A&M 大学で電気工学の学位を取得する間、マットは自分が微積分よりも言葉の方が得意であることに気づき、以来、最先端のテクノロジーの背後にあるストーリーを伝える仕事に携わっています。仕事以外では、都会を離れて、古いものを集めたり、夕日を撮影したりして過ごしています。
Figure (1)
著者について (1)
彼は、マウザー・エレクトロニクスのテクニカルコンテンツスペシャリストです。文法のルールについて考えたり、新旧のテクノロジーについて研究したりしていないときは、自宅で娘たちと一緒にスパを楽しんだり、良いコンサートを観たりして過ごしています。マイアミ大学およびジョン・キャロル大学を卒業し、修辞学および作文を専攻しました。
の普及
A
I
LLM
を超えた
AI
とは?
ベックス・シンプソン、マウザー・エレクトロニクス
人工知能(AI)は、あらゆる場所に存在しているようです。大小を問わず、あらゆる企業のウェブサイトの検索バーに突然追加されました。メールを作成したり、共有ドキュメントに技術的なメモを書いたりしていると、どこからともなく「AI の助けを借りますか?」というメッセージが表示されます。毎日新しいソリューションが登場し、ユーザーに「データとチャット」や「ドキュメントとチャット」機能を提供しています。
AI はここ数年、革新と人気のサイクルを経験していますが、現代の大規模言語モデル(LLM)の登場により、あらゆる製品に AI を組み込み、企業のあらゆる問題に対するソリューションとして提供しようとする競争が激化しています。新しい AI 搭載機能の大部分は、何らかの形でこれらの LLM を活用しており、コンテンツの生成から要約まで、さまざまな文章作成タスクにおいて優れた機能を発揮しています。AI が法律、会計、ソフトウェアエンジニアリングなど、より微妙で複雑な分野に進出していくにつれ、人々は、この種の AI
LLM はすべてに使える?
実はそうではありません
LLM は、最も強力で広範な AI の形態のひとつであり、現在のブームにより、企業はあらゆるエンタープライズユースケースで LLM を成功裏に導入できると信じているかもしれません。しかし、その考えは誤っています。まず、すべての問題が言語に基づくわけではありません。LLM は通常、入力データと必要な出力がテキストベース(文書、説明、指示、要約など)であることに依存しています。ただし、一部のデータは、純粋に構造化された数値形式であり、膨大な量で、時間の経過とともに複雑なパターンが浮かび上がってきます(例:長年
その他のユースケースでは、衛星データや医療用スキャン画像などの画像が入力として必要となります。一部の LLM にはマルチモーダル機能がありますが、このようなより複雑で特殊な画像ニーズにはうまく対応できません。予測メンテナンスなどのその他のアプリケーションでは、録音やその他のセンサデータ(時系列およびマルチモーダルの両方)が入力として必要となる場合があり、言語ベースの生成型 AI はまったく役に立たない可能性が高いです。
第二に、すべてのソリューションが生成型であるわけではありません。一部のソリューションは、回帰や分類を必要とします。一部重なる部分もあります——例えば、生成型AIは分類を求められた場合に分類結果を生成したり、サンプルセットが与えられた場合に回帰のような形式で数値を生成したりできます(ドメインが十分にニッチな場合)——しかし、生成モデルはそれらのパターンに曝露されていないため、正しい出力を生成できない場合があります。時には、質問がデータセット固有のものであり、データセット全体を検査(つまり、データセットから学
最後に、生成AIは過剰な場合もあります。多くの問題には、生成AIを必要としない、実績のある数学的または統計的な解決策があります。例えば、物流や配送におけるスケジューリングやルート選択などのアプリケーションでは、経路最適化のための既知のアルゴリズムを活用できます。これらのアルゴリズムは、実装がより単純で、特定の課題に限定されており、したがって、ディープラーニングとその関連するオーバーヘッドを必要とせずに、より正確な結果を得ることができます。
LLM でなければ、何でしょうか?
言語ベースの生成AIに焦点が当てられているため、同様に印象的なAIが存在することを見落としがちです。LLMと同等の高度さと機能を備えたディープラーニングモデルは、コンピュータビジョンアプリケーション、時系列分析、強化学習(RL)などにも開発されています。さらに、伝統的な統計ベースの機械学習(ML)は、多くの企業におけるユースケースで依然として重要な役割を果たしています
コンピュータビジョン
コンピュータビジョンは、セキュリティ、医療、製造などの業界を変革しているAIの重要なサブ分野です。例えば、サイバーセキュリティでは、監視システムから取得した視覚データを分析し、異常を検出したり潜在的な侵害を特定するためにコンピュータビジョンが活用されています。医療分野では、医療画像から疾患の診断を支援し、例えば放射線検査画像からがんを検出するなどの役割を果たしています。同様に、製造分野では、組み立てラインでの欠陥検出を通じて品質管理を効率化します。これらの応用は、人間の視覚認識を模倣するアルゴリズムを用い
基礎となるモデルに関係なく、トレーニングは一般的に 3 つのステップで構成されます。最初の画像前処理で生データがクリーンアップされ、フォーマット化された後、ビジョンモデルは、エッジ、テクスチャ、パターンなどの特徴を検出するレイヤーでデータを処理し、単純な構造から複雑な形状やオブジェクトへと構築していきます。通常、これは教師あり学習です。CNN は、分類タスクか物体検出タスクかに関わらず、最初に学習する画像に何が写っているかの目安を持っています。ターゲットラベルをより正確に予測するためにレイヤーを絶えず更新
時系列分析
時系列分析は、予知保全やリスク評価などの AI アプリケーションにおいて重要な役割を果たします。このカテゴリーのモデルは、産業機器からのセンサ測定値や金融取引ログなどの時系列データを分析して、パターンを識別し、故障を予測し、リスクを評価することに重点を置いています。この AI のサブセットは、過去の行動が将来の事象の予測因子となるあらゆるアプリケーションに不可欠であり、過去のデータに基づく予測や、事象が予想パターンから逸脱した場合の異常検出を可能にします。例えば、予知保全では、過去のデータに基づいてトレー
時系列分析は通常、データをクリーンアップおよび変換する初期データ前処理から始まります。これは、従来の学習手法とディープラーニング手法の両方にとって重要なステップです。この処理には、値の正規化、一貫した間隔でのデータの再サンプリング、結果を歪める可能性のある外れ値の除去などが含まれます。タスクと利用可能なデータに応じて、さまざまなモデルが選択されます。より単純なタスクやデータが少ない場合、統計モデル(自己回帰移動平均モデル(ARIMA)など)は、線形関係を効率的に捉えることができるため、異常検出や短期予測に
ゲート付き再帰ユニットは、CNN と同様の方法で、入力データを順次処理して関連する特徴を抽出する層で構成され、トレーニングされます。ただし、これらのモデルには、メモリセルやゲート構造などの特殊なメカニズムが含まれており、シーケンスの初期段階の情報を保持し、優先順位付けを行うことで、時間の経過とともに重要なパターンを「記憶」することができます。これにより、季節的な傾向や長期的な相関など、複数の時間ステップにわたる依存関係を捉えることに特に優れています。
(1)
機械学習
ML は、多くの AI アプリケーションの基盤も支えています。大規模なデータセットを必要とすることが多いディープラーニングとは異なり、ML のより単純な統計手法は、小規模で構造化されたデータセットでも効果的に機能するため、生物医学研究や創薬などのニッチな分野に適しています。ML は、サポートベクターマシンやランダムフォレストなどの教師あり学習モデルから、k-means クラスタリングや主成分分析などの教師なし手法まで、幅広い技術を含みます。教師あり学習アルゴリズムは、ラベル付きデータセットを利用して結果を
ML は、数学的アルゴリズムを使用してデータからパターンを抽出し、そのパターンに基づいて予測や意思決定を行います。例えば、人気のあるアンサンブル学習手法であるランダムフォレストは、複数の決定木を組み合わせて予測精度を向上させ、過学習を低減することで、不正検出などのタスクに堅牢な手法となっています。ほとんどの ML モデルにおけるトレーニングプロセスでは、データをトレーニングセットとテストセットに分割し、トレーニングセットでアルゴリズムを最適化し、そのパフォーマンスを未見のデータで検証します。ディープラーニ
強化学習
RL は、動的な環境における意思決定に焦点を当てた、独自の AI アプローチです。このアプローチでは、エージェントは周囲と相互作用し、報酬や罰という形でフィードバックを受けながら、特定の目標を達成することを学習します。ラベル付きデータに依存する教師あり学習とは異なり、RL は一連の行動を探索して長期的な報酬を最大化するため、適応的な戦略を必要とするアプリケーションに最適です。RL プロセスは、問題領域をモデル化する環境を定義し、状態、行動、報酬構造を指定することから始まります。エージェントは、Q学習やポリ
まとめ
生成AIが注目を集めていますが、LLMのブームの向こう側にあるAIの真の力は、その多様なツールキットにあります。このツールキットは、業界を問わず企業が直面する多面的な課題に対応可能です。コンピュータビジョンは、システムが視覚データを処理・分析する機能を可能にし、医療や製造などの分野を変革しています。時系列分析は、予測メンテナンスや財務予測など、時系列データのパターンに依存するアプリケーションに優れています。ML は、生物医学研究や創薬などのタスクにおける構造化データセットに最適な、統計的な精度と効率性を提
Figure (2)
i.MX 8M Plus プロセッサ
機械学習、ビジョン、
マルチメディア、
産業用
IoT
に最適です。
Figure (3)
mouser
.
com
/
nxp
-
i
- (1)
mx
- (2)
8m
- (3)
plus
Figure (4)
著者について (2)
著者について
ベックス(Becks)氏は、ニューヨークを拠点とするスタートアップ企業RogoのフルスタックAIリーダーです。Rogoは、データサイエンスの専門知識がなくても、誰もが自分のデータを分析し、洞察を得ることができるプラットフォームを構築しています。余暇には、AI を使用してクジラを検知し、産業とこれらの優しい巨人が共存して利益を得られるようにする、もう 1 つのスタートアップ企業「Whale Seeker」でも働いています。彼女は、新しいディープラーニング手法の調査から、現実の問題解決に研究を直接応用すること
導入のパラドックス
AI
ロバート・デンプシー、マウザー・エレクトロニクス
人工知能(AI)は、技術革新の最前線に立っており、自動化とデータ駆動型の洞察を通じて、企業の業務運営の多くの側面を変革する可能性を秘めています。しかし、企業は効率の向上や競争優位性の獲得という約束に惹かれつつも、AIの採用に躊躇しています。その「ブラックボックス」的な性質や、AIの幻覚のようなリスクに対する懸念が、この慎重さを後押ししています。
この記事では、企業が AI に対する信頼を構築する方法について考察します。AI の使用について明確な境界を設定し、AI モデルの透明性を高め、人間を置き換えるのではなく補完する協調的なアプローチを採用することで、組織は AI 導入の複雑さを乗り越え、その変革をもたらす可能性を引き出すことができます。
導入の誇大宣伝と現実の解読
AI が業界を変革するビジョンは、ほぼすべての分野に浸透しています。医療から金融、小売に至るまで、AI はワークフローの効率化、意思決定の迅速化、新たなビジネスチャンスの発見など、さまざまな可能性を秘めています。AI は、データ分析、予測分析、反復作業の自動化、自然言語処理において、すでに大きな可能性を示しています。これらのアプリケーションは、業務効率の向上、コストの削減、イノベーションの推進という魅力があるため、企業にとって特に魅力的なものです。
例えば、データ分析では、AI は膨大なデータセットを処理して、人間のアナリストの能力をはるかに超えるトレンド、異常、パターンを特定することができます。カスタマーサービスでは、AI 駆動のチャットボットが大量の問い合わせに対応し、迅速な回答を提供することで、人間のエージェントはより複雑な問題に集中することができます。これらの進歩の魅力は無視できません。AIをコアビジネスプロセスに組み込む可能性が、大きな期待を集めています。
楽観的な予測にもかかわらず、企業における AI の導入率は驚くほど控えめです。2021 年から 2022 年にかけて実施された調査によると、 70% 以上の企業が AI の導入についてまだ検討段階または試験段階にあり、AI を大規模に運用している企業はごくわずかでした。
1
この慎重な姿勢の背景には、いくつかの要因があります。未知のものに対する恐怖は大きな障壁となっています。AI は多くの経営幹部にとってまだ比較的新しいものであり、不安を抱かせるものです。多くの企業リーダーは、データ漏洩、倫理的問題、自動化された意思決定による予期せぬ結果などの潜在的なリスクを当然のこととして懸念しています。AI システムの導入と管理の技術的な複雑さは言うまでもありません。
データ使用、プライバシー、潜在的なバイアスに関する規制当局の監視も、この躊躇に拍車をかけています。組織は、AI の不適切な導入が業務上のミスを引き起こし、評判を損ない、法的措置につながる可能性があることを理解しています。したがって、AIの将来性は魅力的ですが、企業は導入プロセスにおいて慎重かつ段階的なアプローチを採用しています。しかし、2023年に生成AIが急激に普及した後に、2024年のマッキンゼーの調査で、回答者の72%が少なくとも1つの業務機能でAIを導入したと回答しました。
2
AI (1)
モデルにおけるブラックボッ
クスの性質への対応
採用におけるもう 1 つの大きな課題は、多くの高度な AI モデル、特にディープラーニングやニューラルネットワークを使用するモデルにみられるブラックボックス性です。これらのシステムは入力を処理して出力を生成することはできますが、その決定の背景にある「どのように」「なぜ」を人間が容易に理解することはできません。
この不透明性は、これらのモデルが数百万から数十億ものパラメータを含む複雑なアルゴリズムを使用しているため発生します。例えば、画像認識用に設計された深層ニューラルネットワークは、入力データからさまざまな特徴を抽出する多数の層で構成されています。これらの層内の相互作用は数学的に複雑であり、専門家でさえも特定の出力に至る正確な経路を追跡することは困難です。
さらに、AI モデルはそのパターンを学習し予測を行うために、膨大な量のトレーニングデータに依存することが多いものです。AI が識別する関係性や相関性は非常に多面的であり、人間が簡単に解釈することは困難です。その結果、ステークホルダーは、その意思決定プロセスがほとんど謎に包まれた強力なツールを手にすることになります。
AI のブラックボックス性は、企業やステークホルダーがテクノロジーに置く信頼に大きな影響を与えます。AI の意思決定プロセスを透明化しなければ、AI がトレーニングデータに存在するバイアスを永続させていないことを保証することは困難です。例えば、AI を用いて融資の申し込みを審査する金融機関は、AI が明確な理由を示さずに融資を拒否した場合、申請者を不満にさせ、差別であるとの規制当局の監視を受ける可能性があります。
実際の例としては、大手テクノロジー企業の採用 AI が、同社の歴史的に男性優位の採用パターンを反映したデータで訓練されていたため、女性候補者よりも男性候補者を優先したケースがあります。 透明性の欠如により、このバイアスの特定が遅れ、評判の低下や倫理的な懸念が生じました。このような公的な事件は、透明性の欠如が AI ソリューションの導入に対する不信感や躊躇につながり、AI の能力を活用する上で大きな障壁となり、人間と AI システムの連携関係を阻害する可能性があることを浮き彫りにしています。
3
AI (2)
AI
の幻覚という課題に直面する
AI の幻覚とは、AI システムが、誤った、無意味な、あるいは完全に捏造された出力を、妥当で確信に満ちた応答として提示する現象を指します。これらの幻覚は、データから学習したパターンに基づいて予測や応答を生成する、高度な大規模言語モデルや生成型 AI システムでよく発生します。例えば、AIチャットボットは、存在しない出来事に関する質問に対して、架空の日付や数字を交えた詳細な回答を提供し、ユーザーは外部からの検証なしではその不正確さを判断することが困難です。
例えば、2023年、ある弁護士は、AI言語モデルが提供した情報に依存した結果、法的文書に存在しない裁判例を誤って引用してしまいました。 AI は、自信を持って事件名、引用文献、さらには完全に捏造した要約まで生成し、弁護士はそれらを公式の裁判書類に含めました。その後、裁判所はこれらの事件が存在しないことを発見し、関係した弁護士は職業上の恥辱と処分を受けました。
4
このような幻覚は、その内容が正確であるように見えるため特に問題であり、ユーザーは提供された情報を疑問視する専門知識を持っていない場合があります。
AIの幻覚がもたらすリスクは、特に AI システム重要な意思決定プロセスに組み込まれている場合、重大です。不正確な出力は、誤った事業戦略、誤った政策決定、または虚偽の情報の一般市民への流布につながる可能性があります。法的事例では、弁護士が AI によって生成された誤った情報に依存したことで、訴訟が危険にさらされ、倫理的な問題が発生しました。
さらに、AI によって生成されたコンテンツが、将来のモデルのトレーニングデータセットにフィードバックされるケースが増えているため、リスクはさらに高まっています。幻覚が識別され、フィルタリングされない場合、それらは新しい AI システムを学習するためのデータの一部となり、エラーが永続化し、増幅されます。その結果、雪だるま式にエラーが増え、AI 技術の全体的な品質と信頼性が損なわれるという悪循環に陥ります。
幻覚の悪循環を防ぐ
企業は、AI の幻覚が拡散することを防ぐため、コンテンツの作成およびデータのキュレーションにおいて、堅固な人的監視を維持しなければなりません。これには、AI の出力を定期的に監査し、情報を使用または公開する前にその正確性を確認するためのプロトコルを実施することが含まれます。
継続的モニタリング
AI システムの継続的な評価は極めて重要です。パフォーマンスを継続的に監視することで、組織は AI モデルやそのトレーニングデータに潜在的な問題を示すエラーや不正確さのパターンを特定することができます。この予防的なアプローチにより、問題が深刻化する前にタイムリーに介入して問題を修正することが可能になります。
フィードバックループ
フィードバックメカニズムを確立することで、AI システムは人間の指導のもとでミスから学習することができます。エラーが検出されたら、それをシステムにフィードバックしてアルゴリズムを調整し、将来のパフォーマンスを向上させる必要があります。この反復プロセスにより、AI モデルが時間をかけて改良され、幻覚が繰り返される可能性が低くなります。
信頼できる
AI
の利用に関する境
界の設定
AI への信頼を構築するには、企業はその使用に関する明確な境界を定義する必要があります。これには、AI が信頼性を実証し、その出力が検証できる具体的な使用例を特定することが含まれます。たとえば、AI はデータ入力の自動化や予備的なデータ分析では信頼できますが、戦略的な意思決定や顧客とのコミュニケーションなどの分野では、人間の監督が必要になります。
これらのパラメータを設定することで、組織は AI が十分に理解された範囲内でツールとして機能することを保証できます。このアプローチにより、予期せぬ結果が発生するリスクが軽減され、ワークフローにおける AI の役割について、関係者がより安心感を持つことができます。
効果的なリスク管理戦略は、AI の出力を監視し、エラーを早期に発見するために不可欠です。これには、AI が生成した結果を実行または公開する前に、人間の専門家がレビューおよび検証を行う「ヒューマン・イン・ザ・ループ」システムなどのチェックとバランス機能の実装が含まれます。
企業はまた、特にミスが深刻な結果をもたらす重要なプロセスでは、AI の自律性を制限する必要があります。AI システムに付与する独立性の程度を制御することで、企業は AI が一方的な決定を行い、悪影響をもたらすことを防ぐことができます。
AI (3)
モデルにおける透明性の向上
透明性は信頼を構築するために不可欠であり、ユーザーは AI によって生成された結果の根拠を確認することができます。ユーザーが AI システムが結論に達する過程を理解すると、その推奨事項をより信頼し、受け入れるようになるでしょう。さらに、透明性は、監督機関が要求する文書や説明を提供することで、規制の遵守を促進します。特に、厳格なガバナンス基準が求められる業界においてその効果は顕著です。
透明性を確保する1つの方法は、説明可能なAI(XAI)を使用することです。これは、AIシステムの出力を人間がより理解しやすいものにする手法や技術です。XAIは、意思決定の過程に関する洞察を提供することで、AIモデルの内部動作を明らかにすることを目的としています。
企業が採用できる 2 つの手法は、局所的に解釈可能なモデルに依存しない説明(LIME)とシャプレー加法説明(SHAP)です。LIME は、複雑なモデルを局所的により単純な解釈可能なモデルで近似することにより、個々の予測を解読するのに役立ちます。これにより、関係者は特定の決定に最も影響を与えた特徴を確認することができます。同様に、SHAP はゲーム理論を使用して各特徴に重要度値を割り当て、モデルの出力のグローバルおよび局所的な解釈可能性に関する洞察を提供します。
これらの技術を統合することで、組織は AI の意思決定プロセスをより透明にし、より適切な監視を促進することができます。
人間を置き換えるのではなく、
強化する
AI を人間の労働者の代替と捉えるのではなく、企業は AI を人間の能力を高めるツールとして活用する「拡張戦略」を採用すべきです。この視点では、AI は日常的またはデータ集約的なタスクを処理する協力者として位置付けられ、人間は創造力、批判的思考力、感情的知性が必要な分野に集中することができます。
AI と人間の労働者は、いくつかのシナリオで効果的に連携することができます。医療分野では、AI アルゴリズムが医療画像の問題のある部分を強調して放射線技師を支援しますが、最終的な診断は医師が行います。カスタマーサービスでは、AI チャットボットが一般的な問い合わせに対応し、複雑な問題は人間のエージェントにエスカレーションされます。この相乗効果により、AI の効率性と人間の専門家の微妙な理解が融合し、より良い成果が生まれます。また、このアプローチは、職の喪失に対する不安を軽減し、人間の専門知識の価値を強調す
企業のための実践的なステップ
の統合
企業は、倫理ガイドライン、説明責任措置、リスク管理のためのプロトコルを含む、明確な AI ガバナンスポリシーを策定する必要があります。これらのポリシーでは、許容される使用例を概説し、責任を明確にし、エラーや意図しない結果に対処するための手順を確立する必要があります。
研修および教育
従業員研修プログラムへの投資は、AI と効果的に連携するために必要なスキルを従業員に身につけさせる上で不可欠です。これには、AI の限界、倫理的考慮事項、および人間と AI の連携に関するベストプラクティスに関する技術研修や教育が含まれます。
ステークホルダーの関与
AI の導入プロセスにすべてのステークホルダーを関与させることは、透明性と包括性の文化を育みます。従業員、顧客、規制当局、パートナーを AI イニシアチブに関する議論に参加させることで、企業は懸念事項に対処し、貴重なフィードバックを収集し、AI の導入に対するより幅広い信頼を構築することができます。
導入における信頼のギャップを
埋める
AIの変革の可能性にもかかわらず、企業はモデルのブラックボックス性や幻覚のリスクから慎重な姿勢を維持しており、イノベーションと信頼性の必要性との間の緊張関係が浮き彫りになっています。
AI に対する信頼を構築することは不可欠です。組織は、AI の使用に関する明確な境界を設定し、透明性を高め、人間を置き換えるのではなく補完することに重点を置くことで、リスクを軽減し、ステークホルダーの信頼を醸成することができます。
企業は、包括的なポリシーの策定、教育への投資、ステークホルダーの関与など、責任ある導入に向けた積極的な取り組みを推進し、長期的な成功に欠かせない完全性と信頼を維持しながら、AI の潜在能力を最大限に引き出すことが求められています。
Figure (5)
第5世代 Xeon
®
プロセッサ
Figure (6)
AI
、データベース、
ネットワーク、ストレー
ジのパフォーマンスと効
率を向上させます。
mouser (1)
mouser
.
com
/
intel
-
5th
- (1)
gen
- (2)
xeon
- (3)
processors
Figure (7)
著者について (3)
著者について
オンプレミスおよびクラウドの両方で、大規模な機械学習ソリューションの設計、構築、拡張に 10 年以上の経験を持つロバート・デンプシー(Robert Dempsey)氏は、AI 戦略をインパクトのある結果に変えることを専門としています。彼は、複数の大手企業において堅牢なAIアーキテクチャの導入を成功に導き、現在はECSのJustice & Homeland Solutions部門でAIプロジェクトマネージャーとして4つのデータチームを率いています。問題解決にデータ駆動型のアプローチを採用することで知られ、複
1
https
://
www
.
oreilly
. (1)
com
/
radar
/ (1)
ai
-
adoption
- (1)
in
- (2)
the
- (3)
enterprise
- (4)
2022
2
mckinsey
capabilities
quantumblack
/ (2)
our
insights
/ (3)
state
of
3
reuters
article
us
amazon
com (1)
jobs
automation
insight
- (5)
idUSKCN1MK08G
4
nytimes
2023
05
27
nyregion
/ (4)
avianca
airline
lawsuit
chatgpt
. (2)
html
重要なインフラストラクチャについて考えるとき、電力網、水処理、道路、公共施設などのシステムが思い浮かぶでしょう。しかし、データセンターはどうでしょうか?
多くのデータセンターは、電力網への依存度を低減し、排出量を削減するため、太陽光、風力、地熱などのソリューションを採用しています。Google はすでに 100% の再生可能エネルギーを達成しており、2030年までに 24 時間 365 日のカーボンフリーエネルギー (CFE) の生産を目指しています。 テクノロジーのライバルであるアマゾンも同様の野心を抱いており、事業運営とAWSデータセンターを100%再生可能エネルギーで賄い、2040年までにネットゼロカーボン排出目標を達成する計画です。 一方、ドバイの
5
6
2
7
また、短期および長期的なエネルギー需要の増加に対応するため、代替エネルギー源の開発も進んでいます。大手テクノロジー企業のいくつかは、水素や原子炉などの代替エネルギー源に投資しています。例えば、マイクロソフトは最近、アイルランドにあるデータセンターの一つで、ゼロエミッションの水素パイロットプロジェクトを発表しました。 同社はまた、ペンシルベニア州の廃止されたスリーマイル島原子力発電所の再稼働にも合意しました。
8
9
AI の電力需要は、原子力産業のレベルアップにも役立つ可能性があります。複数のテクノロジー企業が、小型モジュール炉(SMR)の開発を先駆ける企業との提携を検討しています。
これらのコンパクトな原子力施設は、従来の原子力発電所よりも迅速かつ低コストで建設可能でありながら、安定した炭素フリーの電力を供給できます。SMRは、データセンターだけでなく、電力網全体においてもゲームチェンジャーとなる可能性があります。
水素燃料電池は、もう一つの有望な分野です。これらのシステムは、副産物として水のみを生成しながら、主電源および予備電源を供給することができます。水素エネルギーは現在、従来のエネルギー源とコスト面で競争力はありませんが、水素生産への投資により、この技術はゼロエミッションの代替手段を求めるデータセンターにとって現実的な選択肢となる可能性があります。
解決策
2
:エネルギー効
率と冷却技術の革新
エネルギー消費の増加は避けられないかもしれませんが、データセンターには電力消費を抑制する方法があります。データセンターは、高度な冷却システム、高効率サーバー、エネルギー管理ソフトウェアなど、エネルギー効率の向上を図るソリューションに投資しています。
データセンターのエネルギー消費の最大40%は冷却に費やされており、 冷却技術の改善は大きな違いをもたらします。例えば、液体冷却は大きな可能性を秘めています。ある研究では、液体冷却を完全に導入することで、従来の空気冷却と比較して施設全体の電力消費量を18.1%、データセンターの総電力消費量を10.2%削減できることが示されています。
10
11
有望なアプローチのひとつが、二相液体冷却です。この技術は、液体が気体に変化する際に熱を吸収してデータセンターのコンポーネントを冷却します。エネルギー消費を最小限に抑えながら、高熱負荷を効率的に管理する方法です。
米国エネルギー省は、以下のものを含む、これらの革新的な冷却プロジェクトのいくつかに資金を提供しています。
12
•
NVIDIAのモジュール式データセンター設計は、チップ直接冷却、ポンプ式二相冷却、単相液浸冷却を組み合わせています。
• (1)
インテルは、新しい冷媒混合液を使用した 2 相冷却システムを開発しています。
二相冷却が一般的になるには、いくつかの課題に対処する必要があります。この技術には特殊な誘電体流体が必要であり、一部の候補冷媒は環境問題を引き起こすおそれがあります。 また、これらのシステムを導入するには、既存のインフラストラクチャに大幅な変更が必要になる場合があります。
13
ハードウェアの進歩も貢献しています。業界大手の NVIDIA の最新グラフィックプロセッシングユニット(GPU)である Blackwell は、従来モデルに比べて 30 倍の性能と 25 分の 1 の消費電力を実現しています。
14
最後に、データセンターインフラストラクチャ管理(DCIM)ソフトウェアは、運用を最適化するために不可欠です。電力使用量や環境条件をリアルタイムで監視し、オペレーターが非効率な部分を迅速に特定して対処するのに役立ちます。たとえば、DCIM ソフトウェアは、負荷がかかっていないにもかかわらず電力を消費している「ゴーストサーバー」を特定することができます。また、このツールは、より効率的なデータセンターの計画、サーバーの負荷予測、ホット/コールドアイルの封じ込めなどの手法の導入を簡素化するのにも役立ちます。
解決策 (1)
3
:電力最適化のた
めのデマンドレスポンスプロ
グラム、
AI
、および自動化
効率の向上に加え、データセンターは AI や需要応答プログラムを活用して、エネルギー消費の管理にますます積極的に取り組んでいます。
デマンドレスポンスプログラムは、エネルギーの可用性を確保するための政策ベースのアプローチを提供します。これらのプログラムは、時間と場所のシフトを利用して電力需要のバランスを取り、特にピーク時の需要を調整し、電力網の安定性を確保します。例えば、カーボン意識の高いモデルを活用するデータセンターは、カーボン強度が低い他の地域にワークロードをシフトすることができます。需要応答プログラムは、低排出エネルギーのエネルギーコストを最大 34% 削減することができます。例えば、Google は現在、電力消費量の 64%
15
もちろん、AI はすでに電力の最適化にも活用されています。AI による温度調節は、データセンターのエネルギー消費の問題を解決するソリューションのひとつです。このシステムは、AI、センサ、アルゴリズムを使用して、熱を監視し、冷却をリアルタイムで調整します。AI は、機器の使用状況、気象条件、その他の要因に基づいて温度変動を予測することを目的としています。この方法により、過冷却を回避してエネルギーを節約し、冷却機器の摩耗を低減します。
環境問題と持続可能な
の実践
データセンターのエネルギー利用可能性の向上は AI の将来にとって重要ですが、これが環境に与える影響は避けられません。
AI のエネルギー消費はすでに十分に観察されています。高度な GPU の製造、データセンター建設のための土地の開墾、AI モデルのトレーニングと推論のための電力供給、そして電力生成のために消費される天然資源と排出される温室効果ガスは、すべて環境に影響を与えています。これは、排出物が放出される地域社会への社会的影響についてはまったく考慮されていません。
これらの環境問題の多くは、次のような持続可能な AI の実践の開発につながっています。
カーボンオフセットプログラム: 企業が、炭素排出量の削減、防止、または隔離を行うプロジェクトから炭素クレジットを購入できる専門プログラムです。
• (1)
•
環境に優しい AI モデル設計: トレーニングと導入に要する計算能力が少ない、無駄のない効率的なモデル
• (2)
エネルギー効率の高いハードウェアの開発: カスタムハードウェア、エネルギー効率の高いサーバーラック、NVIDIA の Blackwell シリーズのような AI に最適化された GPU の開発
これらの進歩は重要ですが、持続可能なAIの実践を導き、形作るための適切な政策、規制、業界基準がなければ、その意味はほとんどありません。
AI はまだ初期段階にあるにもかかわらず、あらゆるレベルの立法者および各国政府がこの問題について議論しています。シンガポールはデータセンターの持続可能性基準を発表し、欧州委員会はデータセンターの持続可能性を評価するスキームを採用しました。 一方、米国政府は、同国の AI エネルギー使用の影響を管理する方法を模索しています。
16
17
米国、欧州、その他の地域では、再生可能エネルギー源の開発、二酸化炭素排出量の相殺、エネルギー効率への投資を奨励するための多くの政府プログラムや税額控除制度も導入されています。
パワーと進歩のバランス:
AI
主
導のデータセンターの未来
データセンターの電力需要は、AIの進展と相まって、革新的な電力供給および管理ソリューションの必要性を浮き彫りにしています。現在の電力網は、AIの指数関数的に増加する電力需要に対応できません。
データセンターが前進するためには、再生可能エネルギーの生産拡大、高度な冷却技術、および高度な電力最適化の組み合わせが必要です。これらの各分野には多額の投資と技術革新が必要であり、その取り組みの成功は決して確実ではありません。
AIの未来には、連邦政府、州政府、地方自治体、テクノロジー企業、公益事業者が協力し、未来が持続可能な形で推進されるよう努める必要があります。
Figure (8)
PwrBlade ULTRA HD+ BTB コネクタ
®
1 (1)
1
つの接点あたり最大
100A
の
電流を供給し、低プロファイルで
最大の空気の流れを確保します。
Figure (9)
Figure (10)
mouser (2)
mouser
.
com
/
amphenol
-
pwrblade
- (1)
btb
- (2)
connectors
Figure (11)
著者について (4)
著者について
ブランドン(Brandon Lewis)氏は、10 年以上にわたり、ソフトウェアのスタートアップ企業や半導体大手企業など、あらゆる分野に関するディープテックジャーナリスト、ストーリーテラー、テクニカルライターとして活躍しています。主な専門分野は、組み込みプロセッサ、ハードウェア、ソフトウェア、および電子システム統合、IoT/インダストリー 4.0 の導入、エッジ AI のユースケースに関連するツールです。彼はまた、ポッドキャスター、YouTuber、イベント司会者、カンファレンスプレゼンターとしても活躍し
大規模な B2B 技術関連聴衆に行動を促す活動をしていないときは、ブランドンはテレビを通じてフェニックス地域のスポーツフランチャイズのコーチを務めています。
1
https
://
www
.
datacenterdynamics
. (1)
com
/
en
/ (1)
news
/ (2)
global
-
data
- (1)
center
- (2)
electricity
- (3)
use
- (4)
to
- (5)
double
- (6)
by
- (7)
2026
- (8)
report
2
goldmansachs
insights
articles
poised
drive
160
increase
in
power
demand
3
weforum
org
agenda
2024
07
/ (3)
generative
ai
energy
emissions
4
mckinsey
industries
private
capital
our
how
centers
and
the
sector
can
- (9)
sate
- (10)
ais
- (11)
hunger
- (12)
for
- (13)
5
datacenterknowledge
supply
power (1)
fueling
digital
revolution
6
sustainability
aboutamazon
climate
solutions
7
8
microsoft
source
emea
09
/ (4)
microsoft (1)
announces
pioneering
green
hydrogen
pilot
project
with
esb
9
reuters
markets
deals
constellation
inks
deal
20
10
gov
doe
40
million
more
efficient
cooling
11
vertiv
us
about
blog
posts
/ (5)
quantifying
pue
when
introducing
liquid
12
analysis
here
are
15
funded
projects
hoping
usher
the (1)
next
generation
of
- (14)
- (15)
- (16)
13
datacenterfrontier
sponsored
article
33035570
understanding
pfas
concerns
two
phase
14
venturebeat
nvidia
unveils
gen
blackwell
gpus
25x
lower
costs
consumption
iea
blob
core
. (2)
windows
. (3)
net
assets
6b2fd954
2017
408e
bf08
952fdd62118a
Electricity2024
Analysisandforecastto2026
. (4)
pdf
time
6987773
usage
change
energycommerce
house
events
grid
security
subcommittee
hearing
powering
examining
america
s
energy (1)
and (1)
technology
future
21 |
AIの倫理的ジレンマの再考
カイル・デント、マウザー・エレクトロニクス
人工知能(AI)に焦点を当てた「Methods」2021号では、AIがもたらす多大な恩恵の可能性と、危害をもたらすリスクとを、社会はどのように天秤にかけるべきかを考察しました。この新しい技術を考慮し、その影響について大局的な質問を投げかけ、新しいツールの限界に注意を払うことを提案しました。 それ以来、想像を絶するほど大規模なデータセットで訓練されたジェネレーティブAIが登場し、話題を独占するようになりました。この急成長するテクノロジーを生活のあらゆる面に適用しようと躍起になっている現在の状況は、私たちが想
AIの最新の発展は、私たちの倫理的パラドックスをエスカレートさせています。AIの急速な普及は、しばしば思慮深い考察よりもイノベーションを優先させ、見過ごすことのできない現実の結果を招く危険性をはらんでいるため、慎重かつ倫理的なアプローチがますます重要になっています。
AI
導入の倫理的リスク
OpenAI、Google、Anthropicのような主要なAI企業が大きな成果を上げています。大規模言語モデル(LLM)やその他の生成モデルは、典型的な音声アシスタントを明らかに超える世代です。あなたが何を望んでいるかをプロンプトで伝えれば、ほとんどの場合、彼らはそれを実現します。質問をしたり、論文や記事を作成したり、新しい作品を作ったり、複雑な数学や論理の問題を解くこともできます。生成AI(gen AI)は有望であるにもかかわらず、実社会への早急な導入は問題がないわけではありません。
十分な監視なしにAIを使用することは、倫理的に重大な問題を引き起こします。例えば、OpenAIは音声認識テープ起こしツール「Whisper」を「人間レベルの堅牢性と精度に近づいている」と宣伝しています。 Whisperは印象的な音声テキスト変換機能を提供する一方で、発話されなかったテキストを単純に発明したこともあります。 このようなAIの幻覚は、知られているように、LLMとのあらゆる相互作用で発生する可能性があります。問題の程度は明らかではありませんが、2023年に行われたコーネル大学の研究によると、ウィ
1
2
3
ニュース業界も、もうひとつの教訓を示しています。業務効率の向上を願って、ジャーナリストや編集者は驚くほど多くのテクノロジーを採用しています。それが実際に時間の節約になるかどうかは定かではありません。なぜなら、信頼性の高いニュース機関は、調査と同じだけの時間を事実確認に費やすからです。信頼性の低い組織は、AIで生成した記事を完全に公開しましたが、その記事に捏造情報が含まれていたため、後にそれを撤回しました。 倫理的な影響は明らかです。厳格な監督がなければ、これらのツールは重要な機関に対する国民の信頼を損なう
4
一方、従来のAIモデルは、仕事のパフォーマンス、採用、融資、刑事司法など、人間の生活に大きな影響を与える意思決定に引き続き活用されています。ベントレー大学とギャラップが2024年に実施した調査によると、調査対象となったアメリカ人の56%がAIツールを本質的に中立的なものと捉えていることが明らかになりました。しかし、AI モデルを開発するのは人間であり、そのモデルのトレーニング方法についても決定を下さなければなりません。トレーニングに使用するデータを選択し、結果に影響を与えるトレードオフを判断します。AI開
5
公的機関は、採用する技術の意義を特に考慮する必要があります。警察は、犯罪の発生確率を予測する顔認識アプリケーションやシステムを導入する前に、どのようなプロセスを踏んでいるのでしょうか?この技術を使用する前に、職員はどのような研修を受けていますか?私たちは、私たちに代わって業務を行う組織に対して、このような質問をする必要があります。
それでも、AI ブームは続いています。雑誌「WIRED」と Lighthouse Reports は、オランダのロッテルダム市において、福祉の不正受給を検出するためのアルゴリズムによる機械学習システムの活用について調査しました。 WIRED 誌と Lighthouse Reports は、このシステムの分析結果を分析し、このモデルは、システム内の実際の不正行為を特定する上で、ランダムに推測する程度しか機能しておらず、アルゴリズムの偏見により、特定の集団が差別を受ける可能性があると結論付けました。ロッテルダ
6
7
ノースカロライナ州立大学の家族とコミュニティの関与センターも、AI による意思決定は、偏ったトレーニングデータや開発者の無意識の偏見により差別を永続させ、体系的な不平等を強化することで、周縁化されたコミュニティに害を及ぼす可能性があることを発見しました。不公正なリスク評価、データプライバシーの懸念、人間の監視の欠如などの問題は、深刻な倫理的課題を引き起こします。それでも、AI は、事務作業を効率化し、ソーシャルワーカーのバーンアウトを軽減することで、児童福祉の向上に貢献する可能性を秘めています。課題は、偏
8
倫理的な
AI
の可能性
責任を持って開発・導入された場合、AI は、社会が直面する課題のいくつかを解決する可能性があります。医療分野では、AI は、従来のスクリーニング手法と高度なアルゴリズムを組み合わせることで、ベトナムの結核の検出に革命をもたらし、より迅速かつ正確な診断を可能にしました。 結核は、多くの遠隔地、特に高価な医療機器や専門知識が容易に入手できない地域では、治療が困難です。数百万件の短い音声記録で訓練された高度な技術を搭載した標準的なスマートフォンが、世界でも最も感染力の強い感染症のひとつを早期発見するために活
9
10
(1)
同様に、AI を活用した創薬ツールは、救命薬の特定を加速させ、公衆衛生の成果を大きく変革する可能性があります。 抗生物質を開発する方法のひとつには、細菌の DNA を非常に複雑に配列決定する方法があります。 ChatGPTのようなエージェントで使用されているものと同様の基礎モデルが、ますます耐性を持つ細菌に対抗できる可能性のある有効な薬剤のライブラリを構築するために活用されています。
11
12
教育分野では、AI を活用した個別学習プラットフォームが、個々のニーズに合わせた指導を行うことで、生徒の理解度の格差を埋める役割を果たしています。人間の監視と組み合わせることで、このようなツールは、公平性と進歩を促進する AI の倫理的な可能性を実証しています。消滅しつつある先住民の言語の保存というニッチな作業も、AI の最近の進歩の恩恵を受けることができます。これらは通常、解決に必要な注目や資金を得られない社会問題です。しかし、AIツールを手にすれば、科学者や活動家は、世界が「より大きな」問題に直面して
AI (1)
の二重の性質に対処する倫理
的義務
本質的に、AI は両刃の剣です。人間の創意工夫を増幅する一方で、体系的な不平等を定着させる可能性も秘めています。開発者、政策立案者、そして社会全体が、この緊張関係をうまく乗り切る責任があります。AIの開発および導入のあらゆる段階において、その利用がより広範な社会的価値観と整合性を保つよう、倫理原則が基盤となる必要があります。
このような形で人々に影響を与える技術を使用する前に、少なくとも以下の倫理原則を適用すべきです。
•
透明性と説明責任: AI システム、特にリスクの高い環境で導入される AI システムは、監査可能で説明可能でなければなりません。これらのシステムによる決定は、専門家以外でも理解できるものでなければなりません。これにより、信頼と説明責任が促進されます。
• (1)
•
規制と監督: 政策立案者は、AI の使用に関する明確な倫理ガイドラインを策定する必要があります。これには、導入後の精度評価の義務化、システム障害発生時の救済手段の提供、AI 開発が環境に与える影響への対応などが含まれます。ベンダーは、自社のシステムによって生じた損害について責任を負うべきであり、これにより、倫理的配慮が AI の設計に不可欠なものとなるでしょう。
• (2)
教育とリテラシー: AI の限界と潜在的な害について社会が理解することが不可欠です。AI リテラシーを学校のカリキュラムや職業訓練プログラムに組み込むことで、個人が AI 技術を批判的に評価し、責任を持って利用できるようになります。
• (3)
公正性: AI 開発者とユーザーは、トレーニングデータに内在する偏見に積極的に取り組む必要があります。システム設計に公平性を組み込み、不均衡な影響について厳格なテストを行うことにより、開発者はAIを分断ではなく公平性の推進力として活用することができます。
責任ある AI という概念を中心に、急成長している業界があります。学者やコンサルティング会社が、組織が固有のリスクを評価するのに役立つ一連の慣行を開発しています。これには、バイアス、プライバシーの侵害、AI の悪用に対処するための監視メカニズムが含まれます。
(2)
透明性のある意思決定と説明可能性は、AI の意思決定に組み込むべき重要な価値観です。意思決定システムの結果を調査するために、アルゴリズム監査が活用されています。責任あるAI研究者は、社会科学から実験手法を借用して、差別やその他の悪影響を測定しています。
これらの研究で考慮すべきもう 1 つの重要な点は、AI のミスによって影響を受けるのは誰かということです。100% 正確なモデルはありませんが、モデルの予測における誤検知は、特定のグループの人々に他のグループよりも大きな損害を与える傾向があるのでしょうか?公平性やトレードオフのバランス(つまり、社会全体の利益と個人間の結果の格差)に関する概念は、依然として複雑な課題として取り組まれています。現時点では業界標準は存在しませんが、学者や地方自治体はその方向に向けて取り組みを進めています。
まとめ
AIのパラドックスは、その変革の可能性と内在するリスクという複雑な現実を含む多くの要因から生じています。この時代を責任を持って乗り切るために、私たちはAIの開発と導入を倫理的原則に根ざしたものにしなければなりません。透明性、規制、教育、そして正義へのコミットメントを通じてのみ、AIが害悪のドライバとしてではなく、集団的な善のツールとして機能することを確実にすることができるのです。私たちが前進するとき、問題はAIが目覚ましい偉業を成し遂げられるかどうかではなく、倫理的かつ公平にそれを成し遂げられるかどうかで
Figure (12)
STM32N6 高性能
マイクロコントローラ
Neural-ART Accelerator
™
は、電力効率に
優れたエッジ
AI
アプリケーション向けに
設計されており、
機能を強化します 。
Figure (13)
mouser (3)
mouser
.
com
/
stm
-
stm32n6
- (1)
mcus
1 (2)
1
openai
.
com
/
index
/ (1)
whisper
2
apnews
article
ai
-
artificial
- (1)
intelligence
- (2)
health
- (3)
business
- (4)
90020cdf5fa16c79ca2e5b6c4c9bbb14
3
arxiv
org
abs
2402
. (1)
08021v2
4
theverge
2023
/ (2)
25
/ (3)
23571082
/ (4)
cnet
written
stories
errors
corrections
- (5)
red
- (6)
ventures
5
news
gallup
poll
648953
americans
express
real
concerns
. (2)
aspx
6
wired
story
welfare
state
algorithms
7
oecd
en
publications
governing
with
_
26324bc2
en (1)
html
8
cface
chass
ncsu
edu
2024
12
02
how
the
use
of
impacts
marginalized
populations
- (7)
in
- (8)
child
- (9)
9
pmc
ncbi
nlm
nih
. (3)
gov
articles
PMC11216706
(1)
10
dhinsights
cough
analysis
tool
screens
for
tb
via
smartphone
11
PMC7577280
nature
s42256
024
00809
Figure (14)
Figure (15)
Mirror Mezz Pro
コネクタ
サーバー、ネットワーク、
ストレージ向けに
112Gbps
の
速度と堅牢な保護を提供します。
Figure (16)
著者について (5)
著者について
カイル・デント(Kyle Dent)氏は、人とテクノロジーの接点に関心を持つAI研究者兼マネージャーです。彼はテクノロジーと社会について執筆し、パロアルト研究所(旧Xerox PARC)の AI 倫理委員会共同委員長を務めています。
mouser (4)
mouser
.
com
/
molex
-
mirror
- (1)
mezz
- (2)
pro
- (3)
connectors
組み込みMLの制約の克服
最適化手法とベストプラクティス
マイケル・パークス、PE、マウザー・エレクトロニクス
組み込みシステムは、スマートで自律的な機能を実現するために、機械学習(ML)の採用がますます進んでいます。しかし、これらのデバイスに ML を実装するには、その固有のリソースの制約により、固有の課題があります。デスクトップやクラウドサーバーなどの汎用システムとは異なり、組み込みシステムは、多くの場合、バッテリで駆動し、限られたメモリと処理能力で動作し、時間的に変化するアナログ信号などのセンサベースのデータと相互作用します。これらの違いは、計算リソースの制限、小規模でノイズの多いデータセット、厳格なリアルタ
課題の理解
組み込みシステムに携わるエンジニアや開発者としては、ML テクノロジーの実装における固有の課題克服において重要な役割を担っています。主にテキストプロンプトを使用する、パソコンからアクセスする生成型人工知能(AI)アプリケーションとは異なり、エッジデバイスは、時間的に変化する電圧や電流のアナログ信号であるセンサ出力を処理します。トレーニングデータと推論データのこの違いに加え、計算リソースとデータの制約も、エッジベースの ML システムを使用する際の重要な課題となっています。
計算リソースの制限
メモリ、処理能力、およびバッテリ寿命は多くの場合制限されているため、軽量モデルと効率的な計算技術が必要となります。マイクロコントローラは通常、メガヘルツおよびメガバイト単位の仕様ですが、デスクトップおよびサーバはギガヘルツおよびギガバイト単位で測定されます。
データの制約
小規模なデータセット、ノイズの多いデータ、多様なデータソースへのアクセスが制限されていることは予想されます。これらの要因は過学習のリスクを高め、一般化を改善するための堅牢な手法を必要とします。過学習は、汎化性能の低下、つまり実環境でのシステムの性能低下(予測の誤りなど)につながる可能性があります。また、より多くのメモリや演算サイクルを消費し、エネルギー消費の悪化につながる可能性もあります。
多くの組み込みシステムでは、厳格な時間制約の中で予測結果を提供できる効率的なモデルを必要とする、低遅延の推論が求められています。これらの要件を満たさない場合、エンドユーザーにはシステムの応答が遅いと感じられる可能性があります。人間工学の研究によると、瞬時の応答として許容される時間は 100 ミリ秒から 300 ミリ秒とされています。これは、これらの現実の要求を満たすことができるモデルを設計することの重要性を強調しています。
モデル最適化手法
メモリの観点から、モデルのサイズと複雑さの適切なバランスを取りながら、推論時の予測の精度を確保することは困難です。モデルを小さすぎると予測能力が低下し、一方、考えられるほぼすべての入力を考慮してモデルをトレーニングすると、マイクロコントローラの限られたメモリ容量に収まらないほどモデルが大きくなってしまいます。このバランスを実現することは非常に重要であり、さまざまな手法を用いて行うことができます。
重量の分散
重み共有手法は、モデル内のパラメータの数を減らし、モデルを小さく、より効率的にします。ネットワーク内の各接続に固有の重みを割り当てる代わりに、類似のニューロンが同じ重みを共有します。たとえば、画像処理タスクでは、重み共有により、各領域ごとに個別の重みを学習するのではなく、エッジやテクスチャなどの測定可能な変数である同じ特徴が画像全体で確実に検出されます。これにより、画像のある部分の特徴は他の部分にも関連していることが多いという事実を活用し、モデルのパラメータ数を削減し、一般化を改善します。
モデルプルーニング
モデルプルーニングとは、ニューラルネットワークから不要なニューロンや層を除去して、計算やメモリのオーバーヘッドを削減することです。プルーニングは、構造化プルーニングと非構造化プルーニングに大別されます。
構造化されたプルーニングは、高密度のマトリックスを維持しながら、ニューロン、チャネル、またはレイヤー全体を削除するため、標準的なハードウェアとの互換性が高くなります。一般的な構造化アプローチとしては、チャネルのプルーニング(畳み込み層で重要度の低いチャネルを削除)、レイヤーのプルーニング(特に深いネットワークで冗長なレイヤーを削除)、グループごとのプルーニング(特定のニューロンまたはフィルタのグループをターゲットとする)などがあります。
非構造化プルーニングでは、重要度の低い個々の重み(接続)を削除します。例えば、重みが 0 に近いものなどです(図 1)。この処理により、疎な行列が生成されます。この行列は、不規則な疎さにより汎用ハードウェアでは効率が悪くなる可能性があるため、効率的な計算には専用のライブラリやハードウェアが必要となります。
(1)
量子化
量子化は、高精度(32 ビットなど)の重みを低精度(8 ビット、あるいはバイナリ精度など)に変換し、ハードウェアアクセラレータを使用してメモリを節約し、計算速度を向上させます。その1つの手法が、再学習を行わずに、事前に学習済みの浮動小数点モデルを量子化する「事後量子化」です。事後量子化の手法の1つである「ダイナミックレンジ量子化」では、重みを低精度に量子化しますが、推論中は活性化は浮動小数点数のまま残ります。別の変形として、重みと活性化の両方を整数に量子化する、完全整数量子化があります。
もう 1 つの方法は、トレーニングプロセスに量子化を取り入れた量子化対応トレーニング (QAT) です。これは、トレーニング中に低精度計算をシミュレートして、精度への影響を最小限に抑えます。
(2)
過学習の軽減
過学習とは、トレーニングデータでは非常に優れたパフォーマンスを発揮するが、未見のデータではパフォーマンスが著しく低下する ML モデルを指します。過学習を軽減する方法としては、既存のサンプルを変換して生成したデータセットを拡張し、汎化性能を向上させる「拡張」があります(例:画像の回転)。組み込みシステムによって取得されるセンサデータ(通常は時系列データ)の場合、ウィンドウスライシング、ジッタリング、タイムワーピングなどの手法により、過学習を軽減するのに役立つ連続データにバリエーションを導入することができま
L1/L2 正則化などの他の手法は、大きな重みをペナルティすることで過学習を低減します。L1 正則化では、重みの絶対値の和が追加され、重要度の低い重みをゼロに近づけることでスパース性を高めます。これは、特徴選択の一形態としても機能します。L2 正則化では、重みの二乗の和を加算することで、大きな重みを抑制し、すべての特徴に分散することでモデルの滑らかさを促進します。ドロップアウト手法では、トレーニング中にニューロンをランダムに削除し、特定のネットワーク経路への過度の依存を防ぎます。
(3)
低ランク分解
低ランク分解は、大きな重みの行列を、より小さく単純な行列に分解することで、ML モデルの計算およびメモリの要求を削減します(図 2)。一般的なニューラルネットワークでは、重み行列は巨大になり、膨大なメモリと処理能力を消費します。低ランク分解は、これらの大きな行列を 2 つ以上の小さな行列の積として近似し、保存および操作に必要なパラメータの数を減らします。この分解により、順方向および逆方向のパスで必要な操作数が大幅に削減され、推論とトレーニングの速度が向上します。
効率的な損失関数
損失関数は、モデルの予測値が実際の値からどれだけ乖離しているかを測定する数式です。これは、パフォーマンスを向上させるためのトレーニングプロセスを導きます。このような関数には、二値交差誤差、平均二乗誤差 (MSE)、ヒンジ損失などがあります。
バイナリクロスエントロピー
この損失関数は、データを 2 つのカテゴリ(例えば「はい」または「いいえ」、「猫」または「犬」)に分類することが目的である、二値分類タスクで一般的に使用されます。これは、確率ベースの予測の精度を直接測定し、モデルが 2 つのクラスを正確に区別することを保証するため、複雑度の低いモデルに特に効率的かつ効果的です。
二乗平均誤差
回帰タスク(住宅価格や気温などの連続値を予測するタスク)によく適用される MSE は、予測値と実際の値の平均二乗差を計算します。この方法は計算負荷が軽く、単純であるため、リソースに制約のある環境において実用的な選択肢となります。
ヒンジの紛失
この損失関数は、分類タスク用に設計されたモデルの一種であるサポートベクターマシン(SVM)で使用されます。ヒンジ損失は、決定境界の周囲にマージンを作成し、予測が境界の片側に確実に収まるようにします。これは、計算効率と堅牢な分類が優先される、小規模なデータセットや単純な組み込みシステムに特に効果的です。
組み込みシステム向け
ML
モデ
ルを最適化するための追加テク
ニック
上記の方法に加え、以下の手法も組み込み設計者がMLモデルをさらに最適化するために役立ちます。
特徴量エンジニアリングと選択
機能を効果的に設計および選択することで、モデルを大幅に簡略化すると同時に、計算能力やメモリの要件を削減することができます。最も関連性の高い情報に焦点を当てることで、より少ないリソースでモデルのパフォーマンスを向上させることができます。
機能重要度分析
このプロセスでは、モデルの予測に大きな影響を与える特徴を特定します。これらの重要な特徴を優先し、無関係な特徴を排除することで、モデルの効率と精度が向上します。たとえば、温度監視システムでは、タイムスタンプなどの関連性の低いデータよりも、気象の傾向に焦点を当てた方が重要になる場合があります。
次元削減
主成分分析(PCA)やt-分布確率近傍埋め込み(t-SNE)などの手法は、データの要約や圧縮を行いながら、その本質的な特性を保持したまま入力特徴の数を削減します。これにより、メモリと計算要件が最小限に抑えられ、モデルが高速かつ軽量になり、組み込みシステムに最適です。
ハイパーパラメータの調整
ハイパーパラメータ(モデルの学習方法を制御する設定)を調整すると、特にリソースが制限された組み込みデバイスにおいて、モデルの効率と精度に大きな影響を与えます。
ランダム検索とグリッド検索
ランダム検索は、指定された範囲内でハイパーパラメータの組み合わせをランダムにサンプリングするハイパーパラメータチューニング手法です。すべての可能な組み合わせを評価するグリッド検索とは異なり、ランダム検索はパラメータ空間をより効率的に探索し、多くの場合、より少ない評価で最適またはほぼ最適な設定を見つけます(図 3)。この効率性により、計算リソースと時間が限られている組み込みシステムで特に有用であり、より迅速な調整とオーバーヘッドの削減が可能になります。
(1)
ベイズ最適化
ベイズ最適化は、最適なハイパーパラメータの探索を反復的に改良する、より高度なアプローチです。以前の評価結果を次の実験の指針として活用することで、この戦略は計算負荷の高い網羅的な検索の必要性を削減でき、特に組み込みシステムにおいて有益です。
最適化アルゴリズム
効率的な最適化アルゴリズムは、モデルの収束を加速し、トレーニング中のリソース消費を最小限に抑えるために不可欠です。
勾配降下法
勾配降下法の最適化手法のバリエーションである、確率的勾配降下法(SGD)、Adam、RMSprop は、収束速度、安定性、メモリ要件の点で異なるトレードオフを提供します。たとえば、Adam アルゴリズムは、その適応的な学習率により、組み込みMLに堅牢で効率的であるとして広く使用されています。
適応型最適化
AdaGrad や Adam などのアルゴリズムは、トレーニング中に学習率を動的に調整します。この適応性により、モデルの収束が迅速になり、反復回数が減るため、組み込みシステムに欠かせない計算リソースを節約できます。
モデルトレーニング
ML モデルをゼロからトレーニングするには、計算コストが高く、時間がかかり、組み込みシステムでは現実的でない場合が多くあります。事前学習済みモデルと高度なトレーニング戦略を活用することで、作業負荷を大幅に軽減できます。
微調整
モデルをゼロから構築する代わりに、微調整では、事前にトレーニングされたモデルの特定のレイヤーを調整します。このアプローチでは、リソースを節約しながら、特定のタスクに合わせてモデルをカスタマイズします。
転送学習
この手法では、類似のタスク用に開発された事前学習済みモデルを使用することで、トレーニングの計算コストを大幅に削減できます。たとえば、物体認識用にトレーニングされたモデルを、組み込みデバイス上の特定の物体に適応させることで、時間とエネルギーを節約できます。
連合学習
このモデルは、生データを中央サーバーに転送することなく、複数のデバイスでトレーニングされます。このアプローチにより、ネットワークの負荷が軽減され、ユーザーのプライバシーが保護され、分散トレーニングが可能になるため、エッジシステムや組み込みシステムに最適です。
ハードウェア対応モデル設計
ハードウェアの仕様を考慮してモデルを設計することで、効率とパフォーマンスを最大化できます。
•
ニューラルアーキテクチャ検索(NAS):NAS 技術は、特定のハードウェアに最適化されたモデルを自動的に設計し、精度と計算要件のバランスを取ります。
• (1)
ハードウェアアクセラレーション:グラフィックスプロセッシングユニット(GPU)、テンソルプロセッシングユニット(TPU)、ニューラルプロセッシングユニット(NPU)などの専用ハードウェアを活用することで、組み込みデバイスにおける電力効率と時間効率に重要なトレーニングと推論を高速化できます。
• (2)
ハードウェアに特化したフレームワーク:TensorFlow Lite、ONNX Runtime、Edge Impulse などの特定のハードウェアプラットフォームに特化したフレームワークを活用することで、サポートされている組み込みハードウェアでの推論パフォーマンスを最適化できます。
• (3)
電力効率:低精度計算と GPU、NPU、デジタル信号プロセッサ (DSP) などのハードウェアアクセラレータを使用することで、消費電力を最小限に抑え、バッテリー駆動デバイスのバッテリ寿命を延長します。
-
• (4)
パイプラインの最適化:モデル計算を効率的なパイプラインに整理することで、レイテンシを削減し、リアルタイムアプリケーションでの迅速な応答を保証します。
• (5)
メモリ管理:メモリの割り当てと解放を効率的に管理することで、メモリリークを防ぎ、ランダムアクセスメモリ(RAM)が限られているデバイスでのモデルのパフォーマンスを最適化します。レイヤー融合やインプレース計算などの手法はメモリ要件を削減し、限られた RAM 上でより大規模なモデルを適合させることを容易にします。最後に、頻繁に使用されるデータのキャッシュなど、メモリアクセスパターンを最適化することで、全体的な速度と応答性を向上させることができます。
まとめ
組み込みシステムに ML を使用すると、リソースが制約された環境においてインテリジェンスと自律性を高める可能性がありますが、同時に固有の課題も生じます。汎用コンピュータとは異なり、組み込みデバイスは、多くの場合、メモリ、処理能力、バッテリ寿命に制限があり、テキストや構造化されたデータセットではなく、センサ入力からのデータを処理します。これらの制限により、精度、効率、応答性を維持するためには、軽量モデルと革新的な最適化手法が必要となります。主な戦略としては、重み共有、低ランク分解、量子化などの手法を用いて計
ハードウェアを意識した効果的な設計も、パフォーマンスの最適化に重要な役割を果たします。ニューラルアーキテクチャ検索、ハードウェアアクセラレーション、メモリ管理などの手法は、ML モデルを特定の組み込みプラットフォームに最適化し、効率的な計算とエネルギー使用を実現します。ハイパーパラメータのチューニング、勾配降下法のバリエーション、フェデレーテッドラーニングなどの高度な最適化戦略により、IoT、モバイルデバイス、自律システムなどのアプリケーションに不可欠なリアルタイム推論と低遅延の応答が可能になります。これ
図
1
:非構造化プルーニングにより、ノード間の重みの総数が削除されます。この例では、元のネットワーク(左)には
36
の重みがあ
り、プルーニング後のネットワークには
23
の重みがあります。重みの共有により、メモリに保存する固有の重みの数が減少します。プ
ルーニング後のネットワークでは、各線の色は特定の重みを表しています。(出典:
Green Shoe Garage
。マウザーにより再作成。)
Sect
Figure
Figure (1)
図 (1)
図
2
:低ランク分解は、わずかな近似誤差のみを導入しながら、重要な情報のほとんどを保持するため、
IoT
(1)
ハードウェアやマイクロコントローラなどのリソースが制限されたデバイスでも、効率的な推論とトレーニングを
行うことができます。(出典:
Green Shoe Garage
。マウザーにより再作成。)
図 (2)
図
3
:グリッド検索は、考えられるすべての組み合わせを網羅的に評価しますが、
ランダム検索はサブセットをサンプリングするため、多くの場合、より迅速に結果を
得ることができます。(出典:
Green Shoe Garage
。マウザーにより再作成。)
Figure (17)
著者について (6)
著者について
マイケル・パークス(Michael Parks)氏(P.E.)は、メリーランド州西部に拠点を置くカスタムエレクトロニクス設計スタジオおよび組み込みセキュリティ研究会社、Green Shoe Garage の共同創設者です。彼は、技術や科学に関する一般の認識を高めることを目的としたポッドキャスト「Gears of Resistance」を制作しています。マイケルは、メリーランド州公認の専門技術者であり、ジョンズ・ホプキンズ大学でシステム工学の修士号を取得しています。
Figure (18)
Figure (19)
AIK-RA6M3 AI/ML
リファレンスキット
リアルタイム分析とビジョン機能
により、エッジアプリケーション
向けの
AI
統合を簡素化します。
mouser (5)
mouser
.
com
/
renesas
-
rtk0eg0001
- (1)
reference
- (2)
kit
AI の規制の展望
ロバート・デンプシー、マウザーエレクトロニクス
人工知能(AI)の急速な台頭は、規制、倫理、社会への影響について激しい議論を巻き起こしています。他の技術とは異なり、AI は規制の枠組みが整備される前に普及が進んだため、トレーニングデータ、プライバシー、知的財産権に関する論争が巻き起こっています。欧州連合(EU)の2023年AI法は、AIに対する最初の主要な立法対応の一つでしたが、この変革的な技術を規制しつつイノベーションを阻害しない方法については、依然として多くの疑問が残っています。この議論では、AIの専門家であるジェレッド・バウンズ氏が、AIの規制環
デンプシー:ジャレッドさん、自己紹介をお願いします。
バウンズ:私は Elyxor のデータおよび AI 部門責任者で、ソフトウェアコンサルティング、技術戦略、実装を担当しています。過去 10 年間、私は DataRobot のエンジニアリング担当副社長を務めたことをはじめ、変革をもたらす AI プロジェクトに携わらせていただきました。そこで、透明性とコンプライアンスの向上を目的とした説明可能な AI チームを設立し、政府機関や業界リーダーと協力して規制の枠組みの構築に取り組んでいます。私の情熱は、AI を革新的かつアクセスしやすいものにすることです。
適応的規制の概念を探る
適応型規制という概念とは、あなたにとってどのような意味があり、AI業界で効果的に導入するにはどうすればよいと思いますか?
適応的な規制とは、時間の経過とともに進化できる柔軟なルールを持つことを意味します。特に、数週間ごとに飛躍的な進歩が見られる AI などの業界では、このことが重要です。スタートアップ企業から、Google、Amazon、OpenAI などの大手企業まで、AI の変化のスピードに対応するためには、イノベーションを阻害することなく安全性を維持する枠組みが必要です。静的な法律では対応できません。その代わりに、AI の適切な枠組みの策定と維持に専念する、米国連邦取引委員会(FTC)や証券取引委員会(SEC)のような
急速な AI の進歩に対応し、イノベーションを阻害することなく、規制の枠組みをどのように進化させていくべきでしょうか?
政府がすべてを完璧に処理することを期待するのは楽観的であることは、私が真っ先に認めます。一流の研究者、公共部門、民間部門間のパートナーシップの育成が鍵となります。AI の影響は業界によって大きく異なるため、一律の規制アプローチは機能しません。カスタマイズされたアプローチの良い例としては、英国の AI エアロックプログラムがあります。 これは、新たな規制の枠組みの策定に役立つ教訓を学びながら、実験を行うための安全な場を提供しています。その官民連携は成功を収めており、他の分野におけるモデルとなる可能性があり
OpenAI に対する訴訟のような事例を踏まえて、イノベーションの促進と安全の確保のバランスをどのように考えていますか?
産業が発展するにつれて、訴訟は避けられません。初期段階はしばしば混乱を伴い、OpenAI に関する訴訟など、著作権に関する訴訟もすでに発生しています。しかし、これらの事例は、説明責任と規制の必要性も示しています。例えば、企業が初期段階のスタートアップ企業に資金を提供して権力を集中させるという独占的な行動に対する懸念は、イノベーションを阻害するおそれがあります。規制は、小規模な企業の進歩を阻害することなく、独占を防止しなければなりません。企業は、公正な競争と倫理的な成果を確保するために、イノベーションと説明
AI に適用できる他の業界における規制アプローチの例を教えてください。
1950年代および1960年代の歴史的な例を見ると、最も変革をもたらした技術の多くは、政府資金による研究や、公共部門と民間部門の連携から生まれました。同様に、AIの開発も、イノベーションと社会的目標を整合させる、公的投資と民間投資の混合型投資の恩恵を受ける可能性があります。
予測型
AI
と生成型
AI (1)
の特徴
予測AIと生成AIの主な違いは何ですか?また、その違いを区別することが重要なのはなぜですか?
予測 AI と生成 AI は、どちらも AI の範疇に入るため、よく似たもののように思われるかもしれませんが、その用途はまったく異なります。予測 AI は、顧客離れの予測や機器の故障の可能性の判定など、結果を予測するために過去のデータを分析することに重点を置いています。過去のデータを使用してパターンを特定し、確率を計算します。一方、生成型 AI は、テキスト、画像、シミュレーションなどの新しいコンテンツを作成します。予測型 AI が確率に基づく意思決定に優れているのに対し、生成型 AI は、ブレインストー
予測AIと生成AIは、安全性、信頼性、倫理的な導入の観点から、どのような固有の課題をもたらしますか?
予測AIの最大の課題は、データの品質です。入力データに偏りがあると、出力にもそれが反映され、固定観念を強化したり、特定のグループを差別したりすることになります。これは、金融や保険などの規制の厳しい業界では特に問題になります。生成型 AI には、モデルが、もっともらしいが虚偽または無意味なコンテンツを生成する「幻覚」などの固有の課題があります。もう 1 つの懸念は、誤用です。ディープフェイクや偽造コンテンツは、すでにソーシャルメディア上で蔓延しています。両方のタイプの AI を安全に導入するためには、強力な
AI の決定論に関する誤解は、組織が AI ソリューションを選択および実装する方法にどのような影響を与えますか?
AI の出力は常に正確で真実である、という誤解があります。この考えは、AI を誤りのない真実の源として過度に信頼することにつながります。実際には、AI システムは統計的な確率に基づいて動作しており、間違いを犯す可能性があります。組織は、AI を決定的な意思決定手段ではなく、洞察を得るためのツールとして活用し、適切な考え方で AI にアプローチする必要があります。
特定のタスクに予測型または生成型のどちらの AI を採用するかが重要な理由は何ですか?
作業に適したツールを選択することは非常に重要です。予測 AI はパターン分析や結果の予測に適しており、生成 AI は独自のコンテンツの作成や、大量の文書やテキストの要約に優れています。間違ったタイプの AI を使用すると、重要な洞察を見逃したり、パフォーマンスが低下したりする可能性があります。そのため、導入前に AI の長所と短所を理解しておくことが重要です。
社会的影響のための規制
AI の普及により、どのような社会経済的な格差が生じる可能性がありますか?
AI は、法律のホワイトカラー職から製造業のブルーカラー職、顧客サービスに至るまで、あらゆるレベルの産業をすでに変革しています。法律分野では、AI が調査、契約書のレビュー、文書作成などの業務を引き継いでいます。これらは従来、新入社員にキャリアアップの機会を提供してきた業務です。 同様に、製造業においても、ヒューマノイドロボットへの投資が組み立てや梱包などの業務を変革しており、アマゾンの倉庫では、人間が関与することなくロボットがエンドツーエンドの業務を行う例が見られます。
顧客サービスも革命の真っ只中にあり、AI を搭載したチャットボットがますます複雑化する対応や業務を担当しています。自動化が加速する中、あらゆる業界でエントリーレベルの職が消滅し、キャリアパスが狭まり、社会経済的な格差が深刻化しています。AI に適応し、それを活用できる者だけが繁栄する二層社会を防ぐためには、スキルアッププログラムや公平な AI 政策などの積極的な対策が、こうした進歩が社会全体に確実に恩恵をもたらすために不可欠です。
規制によって AI のメリットを公平に享受できるようにするにはどうすればよいでしょうか?
労働力の再教育と教育への投資は極めて重要です。特にサービスが不十分な地域における AI インフラへの公的資金援助は、その格差を埋める上で役立ちます。AIツールへのアクセスを拡大し、スキルアップの機会を創出することで、AI主導の経済へのより幅広い参加を確保することができます。
規制は、脆弱な層への悪影響を防止しつつ、どのように社会的利益を促進することができるのでしょうか?
透明性と公平性は、規制の中核を成さなければなりません。例えば、バイアス監査の義務化により、AI システムが差別を永続化しないことを確保することができます。また、医療や教育の改善など、社会的課題に対処する AI ソリューションを開発する企業に対する助成金も、有意義な効果をもたらす可能性があります。
説明責任の確保
AI が被害をもたらした最近の事件を踏まえて、明確な説明責任のメカニズムを確立することはどれほど重要でしょうか?
AI の説明責任は、これらのシステムが日常生活にますます統合されるにつれて、ますます懸念が高まっています。Character.AI に関する最近の事件は、責任を明確に割り当てる仕組みがないまま運用することのリスクを浮き彫りにしています。 年齢制限などの簡単な対策も有効かもしれませんが、それは根本的な問題には対処していません。危害が発生した場合、その責任は開発者、トレーナー、インフラ提供者、あるいはユーザーにあるのか、その責任の所在が不明確であることが多いのです。
オープンソースのモデルは、責任の所在が明確にならないため、この問題をさらに複雑にします。明確な枠組みがない場合、被害者は救済手段がなく、AI システムに対する信頼が損なわれるおそれがあります。政府および規制当局は、被害を軽減し、失敗が発生した場合に信頼を回復し、生活の重要な分野における AI の役割の拡大に備えるための規則を迅速に確立しなければなりません。
規制機関は、AI の結果について人間が責任を確実に果たすためにどのような措置を講じることができるでしょうか?
透明性が鍵です。企業は、AI モデルのトレーニングおよび導入方法を文書化することが義務付けられるべきです。最高 AI 責任者などの役割を割り当てることも、組織レベルでの監督と説明責任を確保するのに役立ちます。
実用化には、以下のいくつかのステップが必要になるかもしれません。
•
影響評価:AI システムの実用化に先立ち、その社会的および環境的影響を評価すること。
• (1)
堅牢なテストフレームワーク:AI モデルをさまざまなシナリオにさらして、導入前に潜在的な問題を発見するフレームワークを開発します。ソフトウェアエンジニアリングの「カオスエンジニアリング」の概念を借用して、さまざまな障害シナリオをシミュレートし、AI システムのストレステストを行うことができます。
• (2)
レッドチーム:業界ではすでに、モデルを意図しない、あるいは非倫理的な動作をさせることを任務とする専門チーム「レッドチーム」を採用している企業が多くあります。このプロセスを開発パイプラインの一部として体系化することで、弱点を公開前に発見することが可能になります。
AI システムによって被害が発生した事例から、業界はどのような教訓を学ぶことができるでしょうか?
ネガティブな事象は、厳格なテストとモニタリングの重要性を浮き彫りにします。継続的な監視と倫理的な実践への取り組みにより、将来的な被害を防止し、AI 技術に対する信頼を構築することができます。
お時間をいただき、ありがとうございました、ジャレッドさん。とても参考になりました。
ロバートさん、ありがとう。楽しい時間でした。
Figure (20)
MAX78002 人工知能
マイクロコントローラ
エッジ
IoT
向けにニューラルネットワークを有効化し、
エネルギー効率に優れた
AI
処理と超低消費電力の
マイクロコントローラを組み合わせます。
mouser (6)
mouser
.
com
/
maxim
-
max78002
- (1)
microcontrollers
1 (1)
1
gov
.
uk
/
government
/ (1)
collections
/ (2)
ai
-
airlock
- (1)
the
- (2)
regulatory
- (3)
sandbox
- (4)
for
- (5)
aiamd
2
bloomberg
com
news
articles
2024
11
15
/ (3)
replacing
entry
level
jobs
- (6)
could
- (7)
break
- (8)
- (9)
career
- (10)
ladder
3
natlawreview
article
new
lawsuits
targeting
personalized
chatbots
highlight
need
ai (1)
quality
assurance
4
forbes
sites
jackkelly
05
/ (4)
28
/ (5)
rise
of
the (1)
chief
officer
Figure (21)
Figure (22)
Z-PACK HM-eZD
ハードメトリック
バックプレーン
コネクタ
著者について (7)
著者について
ジャレッド・ボーンズ(Jared Bowns) 氏は、ビジネス戦略、製品開発、デザインという分野を横断して10年以上の経験を持つ、AI業界の経営幹部です。DataRobotのエンジニアリング担当副社長として、同社の AI プラットフォームの構築、企業での採用に向けた拡張、技術および製品戦略の策定において重要な役割を果たしました。技術的専門知識と戦略的ビジョンを融合させることで知られるジャレッドは、現在 Elyxor のデータおよび AI プラクティスを率い、AI の可能性を解き放ち、複雑で困難な課題に実用
56Gbps
のデータ転送速度、
下位互換性、および広い
動作温度範囲
mouser (7)
mouser
.
com
/
te
-
zpack
- (1)
hm
- (2)
ezd
- (3)
connectors
view archives of Methods_JP - mouser-methods-v6i1-confrontingai-digital-8.5x11in-jp