Methods_JP

mouser-methods-v6i1-confrontingai-digital-8.5x11in-jp

Issue link: https://trendsintech-japan.mouser.com/i/1540382

Contents of this Issue

Navigation

Page 33 of 43

きな重みをペナルティすることで過 学習を低減します。L1 正則化では、 重みの絶対値の和が追加され、重 要度の低い重みをゼロに近づける ことでスパース性を高めます。これ は、特徴選択の一形態としても機 能します。L2 正則化では、重みの 二乗の和を加算することで、大きな 重みを抑制し、すべての特徴に分 散することでモデルの滑らかさを促 進します。ドロップアウト手法で は、トレーニング中にニューロンを ランダムに削除し、特定のネットワ ーク経路への過度の依存を防ぎます。 低ランク分解 低ランク分解は、大きな重みの行列 を、より小さく単純な行列に分解す ることで、ML モデルの計算およびメ モリの要求を削減します(図 2)。一 般的なニューラルネットワークでは、 重み行列は巨大になり、膨大なメモ リと処理能力を消費します。低ラン ク分解は、これらの大きな行列を 2 つ以上の小さな行列の積として近似 し、保存および操作に必要なパラメー タの数を減らします。この分解によ り、順方向および逆方向のパスで必 要な操作数が大幅に削減され、推論 とトレーニングの速度が向上します。 図 2:低ランク分解は、わずかな近似誤差のみを導入しながら、重要な情報のほとんどを保持するため、IoT ハードウェアやマイクロコントローラなどのリソースが制限されたデバイスでも、効率的な推論とトレーニングを 行うことができます。(出典:Green Shoe Garage。マウザーにより再作成。) 効率的な損失関数 損失関数は、モデルの予測値が実 際の値からどれだけ乖離してい るかを測定する数式です。これ は、パフォーマンスを向上させる ためのトレーニングプロセスを導 きます。このような関数には、二 値交差誤差、平均二乗誤差 (MSE) 、 ヒンジ損失などがあります。 バイナリクロスエントロピー この損失関数は、データを 2 つのカテ ゴリ(例えば「はい」または「いい え」、「猫」または「犬」)に分類す ることが目的である、二値分類タスク で一般的に使用されます。これは、確 率ベースの予測の精度を直接測定し、 モデルが 2 つのクラスを正確に区別す ることを保証するため、複雑度の低い モデルに特に効率的かつ効果的です。 二乗平均誤差 回帰タスク(住宅価格や気温などの 連続値を予測するタスク)によく適 用される MSE は、予測値と実際の 値の平均二乗差を計算します。この 方法は計算負荷が軽く、単純である ため、リソースに制約のある環境に おいて実用的な選択肢となります。 ヒンジの紛失 この損失関数は、分類タスク用に 設計されたモデルの一種であるサ 33 |

Articles in this issue

view archives of Methods_JP - mouser-methods-v6i1-confrontingai-digital-8.5x11in-jp