責任ある AI とは、潜在的なリスクや悪影響を軽減しながら、AI システムが透明で信頼できるものであることを保証する実践と原則のことです。
責任を持って AI を運用するために、企業は自社のシステムが以下の条件を満たしていることを積極的に確認する必要があります。
バイアス
モデルにバイアスがあるということは、モデルがデータセットの重要な特徴を見逃しているということです。これは、データの詳細が不足していることを意味します。モデルのバイアスが大きいと過小適合を意味します。
バリアンス
バリアンスが大きいと、モデルはトレーニングデータを熟知し、高い正解率で予測を行うことができます。これは、データのすべての特徴をとらえているためです。
ただし、モデルに新しいデータを入れると、モデルの正解率は低下します。これは、新しいデータには、モデルのトレーニングに使用されたデータとは異なる特徴が含まれている可能性があるためです。これにより、過剰適合の問題が発生します。
バイアスとバリアンスのトレードオフ
バイアスとバリアンスのトレードオフとは、バイアスとバリアンスの適切なバランスを取ながら、モデルを最適化することです。つまり、モデルを最適化して、過少適合や過剰適合にならないようにする必要があります。
バイアスやバリアンスのエラーを解消するには以下の方法が役立ちます
責任ある AI の主な要素
Amazon SageMaker
フルマネージド型の機械学習サービスです。
SageMaker Clarify では機械学習モデルとデータセットの潜在的なバイアスを特定できます。
Amazon SageMaker Data Wrangler では不均衡が生じた場合にデータのバランスを取ることができます。
Amazon SageMaker Model Monitor では、本番環境の SageMaker 機械学習モデルの品質をモニタリングします。
Amazon Augmented AI (Amazon A2I) は、機械学習の予測を人間がレビューするために必要なワークフローを構築できるサービスです。
Amazon SageMaker Role Manager: 管理者は Amazon SageMaker Role Manager を使用して最小限のアクセス許可を数分で定義できます。
Amazon SageMaker Model Cards: SageMaker Model Cards を使用して、構想からデプロイまで、使用目的、リスクの評価、トレーニングの詳細などの重要なモデル情報の取り込み、取得、共有を行うことができます。
Amazon SageMaker Model Dashboard: SageMaker Model Dashboard を使用して、本番環境でのモデルの動作に関するすべての情報を 1 か所でチームに把握してもらうことができます。
Amazon Bedrock
高パフォーマンスの FM を統合 API を介して提供するフルマネージドサービスです。
Amazon Bedrock のガードレールを使用して、ユースケースおよび責任ある AI のポリシーに基づいて生成 AI アプリケーション用のセーフガードを実装できます。Amazon Bedrock のガードレールを使用することにより、特定のトピックを回避したり、有害コンテンツをフィルターしたり、違反がないかどうかユーザー入力をモニタリングしたりすることができます。
AWS AI Service Card は、AWS AI サービスをよりよく理解するのに役立つ新しいリソースです。AI Service Card は責任ある AI ドキュメントの 1 つの形態で、AWS AI サービスの想定されるユースケースと制限事項、責任ある AI 設計の選択肢、デプロイとパフォーマンスの最適化のベストプラクティスに関する情報を 1 か所で見つけることができます。
Amazon Bedrock または SageMaker Clarify のモデル評価を使用して、正解率、堅牢性、有害性、人間の判断を必要とする微妙な違いがあるコンテンツについてモデルを評価できます。
AI アプリケーションのモデルを選択する際は、ユースケースを詳細に定義する必要があります。特定のユースケースに合わせてモデルをチューニングできるため、これは重要です。
モデルのパフォーマンスは、次のようなさまざまな要因によって決まります。
責任ある AI における持続可能性は、長期にわたって社会的、環境的、経済的に持続可能な方法で AI システムを開発およびデプロイできることを指します。
モデルを選択する際の責任ある主体性に関する考慮事項
モデルを選択する際の環境上の考慮事項
データセットのバランスを取る
不当に差別することや、望ましくないバイアスを表すことのない責任ある AI モデルを作成するには、バランスの取れたデータセットが重要です。
データ収集におけるインクルーシブネスと多様性は、トピックに関係なく最も重要な焦点と考える必要があります。
データキュレーション
データセットのバランスを取るためのもう 1 つの部分は、データセットのキュレーションです。データセットのキュレーションは、データをモデルで正確に実行できるようにデータのラベル付け、整理、前処理を行うプロセスです。
データ前処理 -> データ拡張 -> 定期監査
透明性 : モデルが「どのように」決定を行うのかを理解するのに役立ちます。
説明可能性: モデルが「なぜ」その決定を行ったのかを理解するのに役立ちます。これにより、モデルの制限に関するインサイトを得ることができます。
透明性と説明可能性があるモデルのメリット
透明性と説明可能性があるモデルのリスク
透明性を実現するためのツール
AWS AI Service Card : AI サービスの構築に役立つ Amazon サービスに関する透明性のあるドキュメントを提供
Amazon SageMaker Model Card : 自分で作成または開発したモデルのカタログを作成し、モデルを文書化できます。
説明可能性を実現するためのツール
SageMaker Clarify: 表形式、NLP、コンピュータビジョンの各モデルについて、特定の入力に対するモデルの予測に最も影響を与えた特徴量について詳しく示すスコアを提供します。
SageMaker Autopilot: 機械学習モデルがどのように予測を行うかについてのインサイトを提供します。
解釈可能性: 解釈可能性は、重みや特徴量に基づいてモデルの出力を人間が解釈できるようにシステムにアクセスすることです。
解釈可能性が高くなると、通常はパフォーマンスが低下します。
解釈可能性はモデルの透明性の特徴の 1 つです。解釈可能性は、人間が決定の理由をどの程度理解できるかということです。これは説明可能性を表していると思われるかもしれませんが、違いがあります。
解釈可能性
解釈可能性は、重みや特徴量に基づいてモデルの出力を人間が解釈できるようにシステムにアクセスすることです。例えば、ある企業でモデルの透明性を高め、モデルが予測を生成する理由と方法を正確に理解する必要がある場合、その企業は AI/機械学習の手法を構成する内部の動作を観察する必要があります。
説明可能性
説明可能性は、機械学習モデルを取り入れ、その動作を人間の言葉で説明する方法です。複雑なモデル (ブラックボックスなど) では、内部の動作が予測にどのように、またなぜ影響するのかを十分に理解することはできません。ただし、モデルに依存しない方法 (部分従属度、SHAP 従属度、サロゲートモデルなど) を使用すると、入力データの属性とモデルの出力の間の意味を見つけることができます。その理解があれば、AI/機械学習モデルの性質と動作を説明できます。
次の各タブを展開して、解釈可能性と説明可能性の実際の例を確認してみましょう。
経済学者は、インフレ率を予測するために多変量回帰モデルを構築するとよい場合があります。モデルの変数の推定パラメータを表示して、さまざまなデータ例に基づいて予想される出力を測定できます。この場合、完全な透明性が得られ、経済学者はモデルの動作の正確な理由と方法を答えることができます。
ある報道機関では、ニューラルネットワークを使用してカテゴリをさまざまな記事に割り当てています。この報道機関はモデルを詳細に解釈することはできません。ただし、モデルに依存しないアプローチを使用して、入力記事データをモデルの予測と比較して評価できます。このアプローチを使用したところ、スポーツ組織について言及しているビジネス記事にモデルがスポーツカテゴリを割り当てていることがわかりました。報道機関はモデルの解釈可能性を使用しませんでしたが、モデルの動作を明らかにするための説明可能な答えを導き出すことができました。
ある企業でモデルの透明性を高め、モデルが予測を生成する理由と方法を正確に理解する必要がある場合、その企業には解釈可能性を提供するモデルが必要です。ただし、図に示すように、解釈可能性が高くなると、通常はパフォーマンスが低下します。
高いパフォーマンスを実現しつつ、モデルの動作についての一般的な理解は保ちたい場合、モデルの説明可能性がより大きな役割を果たします。
新しい AI/機械学習プロジェクトを始めるときは、解釈可能性が必要かどうかを検討する必要があります。モデルの説明可能性はどの AI/機械学習のユースケースでも使用できますが、詳細な透明性が必要な場合、AI/機械学習の手法の選択が制限されます。
モデルの安全性は、AI システムが世界とやり取りする際に害を及ぼさないようにする能力です。
モデルの安全性とモデルの透明性のトレードオフ
正解率: 大規模なニューラルネットワークのような複雑なモデルは、より透明性の高い単純な線形モデルと比較すると、正確性は高いものの解釈性は低くなる傾向があります。
プライバシー: プライバシー保護手法を使用すると安全性は向上しますが、モデルの検査は難しくなります。これにより、モデルの透明性が低下する可能性があります。
安全性: 安全性を得るためにモデルの出力を制限またはフィルタリングすると、元のモデルの推論の透明性が低下する可能性があります。
セキュリティ: 隔離された環境でモデルをトレーニングすると (プライベートで、外部データにアクセスできないネットワークでトレーニングされたモデル)、外部監査を受けにくくなる可能性があります。
制御可能なモデルは、トレーニングデータの要素を変更することで、モデルの予測と動作に影響を与えることができるモデルです。可制御性が高いほど、モデルの透明性は高くなり、望ましくないバイアスや出力の修正が可能になります。
説明可能性がある AI の人間中心設計の主な原則は次のとおりです。
Amazon SageMaker Ground Truth
機械学習ライフサイクル全体に人間のフィードバックを組み込んでモデルの正解率と関連性を向上させるための、最も包括的なヒューマンインザループ機能が用意されています。
Responsible Artificial Intelligence Practices