「金融が変われば、社会も変わる!」を合言葉に、未来の金融を描く方々の想いや新規事業の企画に役立つ情報を発信しているNTTデータのメディア「OctoKnot(オクトノット)」。MetaStep(メタステップ)の「提携メディア」に参画いただき、定期的にコラボレーションしています。今回は相互掲載企画の第5弾。
AIは、その高い自由度が故にリスクもある事は、読者の皆さんも周知の事と思います。合成映像や音声によるフェイク動画、模造作品による違法販売など限りはありませんが、どんな問題が起きているか、そしてどんなリスクを孕んでいるか、正しく認識しているでしょうか?AIを正しく活用するために、倫理の観点からAIを視る事はとても重要です。「これは便利!」と思うAI活用は、倫理的に見ると手放しで喜べない側面もあります。AIのビジネス活用をする人全員が認識しておくべき内容「AIの倫理」。緊張感を持って学びたい所です。それではよろしくお願いします。
2022年11月にChatGPTのサービスが提供されました。チャットするようにプロンプトに質問を入力するという単純で明快なUI/UXは、多くの人に受け入れられ爆発的にユーザー数を伸ばしています。サービス公開当初から、回答の質の高さに評価が集まりました。プロンプトにいろいろな質問文を入れて回答を利用したり、少し難しい質問を入れて挙動を確認したりした方もいらっしゃるかと思います。しかし、最近になり個人情報の収集や管理、利用者の年齢を制限できないなど、これまでのAIと同様の倫理面の問題も話題にされています。AI全般についてEUでの法規制の発効も近づいています。今回は我々の生活をサポートするAIと倫理の関係について報告します。
近年のAIの応用は2010年代の深層学習を用いた研究がベースになっています。この研究は、画像、動画、音声の認識、自然言語処理、定型、非定型データの予測、分類など数多くの分野で利用されています。
2010年代のAIブーム以降、AIが人間の仕事を代替する、人間が制御できない事態を引き起こす、AIが人間にとって脅威となる、などのネガティブな話題も出てきています。これに対して世界中の産官学の団体がAIをどのように取り扱うべきかというガイドラインを検討し公表しています。
これらのガイドラインはAIの倫理も扱っており、近年はその議論が活発になっています。必ずしも法を逸脱するわけではないものの、倫理的、道義的なAIの問題に対処するために、いくつかのキーワードがAIのガイドラインに盛り込まれています。
そのキーワードは公平性、公正性、プライバシー、包摂性、透明性、説明可能性、監査可能性、頑健性、アカウンタビリティなどです。これらキーワードに関連するAIの倫理問題に対応するためにさまざまな活動がされています。ChatGPTも2010年以降のAIの進化系であり利用については倫理的な問題が同様に存在しています。
現在、多くの場面で利用される深層学習をベースにしたAIシステムは、AIをベースとしていない情報システムと比べ、データ、アルゴリズム、運用の点で大きく異なります。AIシステムはデータの収集や、時には設計者が当初想定していない挙動をすることがあり、AIやAIの活用に対して倫理的な側面が注目されるようになってきました。
現在のAIは過去の大量のデータをもとに学習し、過去の事例の分類や未来の事象を予測するモデルを構築します。このモデルのもととなるデータが原因でAIの倫理的な問題を引き起こすことがあります。
海外の犯罪者の再犯を予測するAIシステムの学習には、犯罪や保釈の履歴、年齢、雇用状況、教育レベル、地域とのつながり、薬物使用、信条、さらに家族や友人の犯罪歴、薬物使用歴などのデータを集めているとされていますが、その詳細は明らかになっていません。過去の犯罪者の履歴をもとにしているため、学習に使用したデータの偏りで特定の属性を持つ人の再犯率を高く予測する傾向を持つこともあり得ます。こうした傾向が個人の再犯率判定の公平性に影響を与えており、倫理的な問題とされています。
――ここから先はオクトノットにてご覧ください――
※本記事の内容には「Octo Knot」独自の見解が含まれており、執筆者および協力いただいた方が所属する会社・団体の意見を代表するものではありません。