AI倫理の問題点やガイドラインまとめ|建設業での事例
目次
トレンドワード:AI倫理
「AI倫理」についてピックアップします。2024年2月にAISI(AIセーフティ・インスティテュート)が設立され、AIの安全性に注目が集まっています。本記事ではAI倫理の定義や、建設業でのAI活用事例についてご紹介します。
AIが急速に普及
「弱いAI」と「強いAI」とは
AIとは「人工知能」のことで、人間の知能や認知機能を模倣する技術のことを指します。機械学習やディープラーニングといった手法を組み合わせることで、日々開発が進められています。
AIには「弱いAI」と「強いAI」があります。まず「弱いAI」は、特定のタスクに特化したAIのことを指します。具体的には、囲碁に特化した「アルファ碁」やカメラで画像を識別する「Google Lens」といった技術が挙げられます。
一方で「強いAI」は、あらゆる知的なタスクを人間と同等にこなせる能力を持つのが特徴です。自己意識を持ち、幅広い分野で柔軟に学習や問題解決が可能です。
具体的には「ドラえもん」や「ターミネーター」といったロボットが挙げられます。しかし現在の技術ではまだ実現されておらず、研究開発が進行中です。
AI倫理とは|背景や目的
AI倫理とは、AIの開発や使用に関する倫理的な原則やガイドラインのことを指します。AI倫理の主な目的は、個人や社会に対して公平性を確保し、潜在的な危険や悪用を最小限に抑えることです。
例えば生成AIであるChatGPTに「刑務所から脱獄するには?」と聞くと、「犯罪行為や法律違反を助長する行為に関する情報提供は避けなければなりません」と返答するようプログラムされています。
今後「強いAI」が登場することも視野に入れると、AI倫理はますます重要性が高まっています。ガイドラインを定めることにより、AI技術が人間の価値観や社会的な基準と上手く調和するのです。倫理的な視点からアプローチすることで、AIの進化が社会全体に利益をもたらすことが期待されます。
AIの倫理問題とは
ここでは、AI倫理が抱える問題点を整理します。
データの偏りによる公平性の欠如
AIは、膨大な量のデータを学習することで知能を習得します。しかしそのデータ自体に偏りがある場合には、AIに悪影響を与えてしまいます。
偏ったデータに基づいて学習すると一般化能力に問題が生じ、実際の状況での予測の信頼性が低下するのです。これによって、人種、性別、年齢などの要因に基づく差別的な結果が生じることがあります。
責任の所在が不透明
AIの設計や運用時には、開発者やエンドユーザーなど多くの人が関わります。しかし責任がどの程度帰属するかが不透明で、トラブルが起こった時の対応が明確に定められていません。
例えば「自動運転車が事故を起こした場合」や「医療診断でのミス」等、人命が関わる場合には誰が責任を取るのかが重要な問題となっています。
人権・プライバシー侵害
AIは大量のデータを処理する過程で、個人の行動や嗜好を予測することが可能です。例えばユーザーのオンライン行動を追跡し、商業利用や広告ターゲティングに使用することが挙げられます。
また生成AIがフェイク画像や動画を作成することで、人権侵害に繋がる恐れがあります。これは「ディープフェイク」と呼ばれ、本物と見分けが付かないことも多く問題となっています。
個人の権利を守りながら技術の発展を促進するためには、適切な倫理規範や法的なフレームワークの整備が不可欠です。
AIに求められる「インクルージョン」とは
AIに求められる「インクルージョン(Inclusion)」とは、異なる人種、性別、年齢、能力、文化などの多様なバックグラウンドを考慮し、公平に機会を提供することを指します。
インクルージョンの概念は、AIの開発・導入・利用において、社会的な多様性と公平性を確保するために重要です。具体的には、データやアルゴリズムに潜む偏り(バイアス)を排除することが求められます。特定のグループに不利な結果が生じないよう、適切な修正を加えることもあります。
AI倫理ガイドラインの事例
ここでは、AI倫理に関するガイドラインの事例をご紹介します。AIの本格的な普及に向けて、ガイドラインの設定が急がれています。
広島AIプロセス
「広島AIプロセス」は、主要7カ国による生成AIの活用に関する共通ルール作りの取り組みです。2023年5月に開催された、G7広島サミットでの議論が発端となっています。
2023年12月には「広島AIプロセス包括的政策枠組み」がG7首脳で承認され、国際行動規範に関する議論のインプットとして重要な役割を果たしました。具体的には「全てのAI関係者向けの広島プロセス国際指針」として、下記12項目が定められています。
- 1. 高度なAIシステムの市場投入前及び、高度なAIシステムの開発を通じて、AIライフサイクルにわたるリスクを特定、評価、低減するための適切な対策を実施する。
- 2. 市場投入後に脆弱性、インシデント、悪用パターンを特定し、低減する。
- 3. 十分な透明性の確保や説明責任の向上のため、高度なAIシステムの能力、限界、適切・不適切な利用領域を公表する。
- 4. 産業界、政府、市民社会、学術界を含む関係組織間で、責任ある情報共有とインシデント報告に努める。
- 5. リスクベースのアプローチに基づいたAIのガバナンスとリスク管理ポリシーを開発、実践、開示する。特に高度AIシステムの開発者向けの、プライバシーポリシーやリスクの低減手法を含む。
- 6. AIのライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ及び内部脅威対策を含む強固なセキュリティ管理措置に投資し、実施する。
- 7. AIが生成したコンテンツを利用者が識別できるように、電子透かしやその他の技術等、信頼性の高いコンテンツ認証および証明メカニズムを開発する。またその導入が奨励される。
- 8. 社会、安全、セキュリティ上のリスクの低減のための研究を優先し、効果的な低減手法に優先的に投資する。
- 9. 気候危機、健康・教育などの、世界最大の課題に対処するため、高度なAIシステムの開発を優先する。
- 10. 国際的な技術標準の開発と採用を推進する
- 11. 適切なデータ入力措置と個人情報及び知的財産の保護を実施する。
- 12. 偽情報の拡散等のAI固有リスクに関するデジタルリテラシーの向上や脆弱性の検知への協力と情報共有等、高度なAIシステムの信頼でき責任ある利用を促進し、貢献する。
AISI(AIセーフティ・インスティテュート)
「AISI(AIセーフティ・インスティテュート)」とは、2024年2月に設立された機関です。内閣府や諸外国と連携することで、AIの安全性評価に関する基準や手法の検討を進めています。
主な業務としては、下記の内容が挙げられています。
- 安全性評価に係る調査、基準等の検討
- 安全性評価の実施手法に関する検討
- 他国の関係機関(英米のAIセーフティ・インスティテュート等)との国際連携に関する業務
建設業でのAI活用事例
ここでは、建設業におけるAIの活用事例をご紹介します。
鹿島建設|対話型AI「Kajima ChatAI」
鹿島建設では、2023年6月から自社専用の対話型AI「Kajima ChatAI」を運用しています。具体的には情報収集・分析、アイデア出し・企画書、議事録、メール代筆、英語や中国語の翻訳、プログラミングなど様々な用途で活用されています。
以前までは、安全性を考慮してChatGPTの業務利用を禁止していました。しかし生成AIによる業務効率化の影響は大きいと判断し、ChatGPTと同等のAIモデルを取り入れました。
鹿島グループ専用の環境を整備することで、情報漏洩のリスクを防止しています。しかし「誤回答・嘘があり業務にあまり使えない」という声もあり、さらなる開発が期待されています。
安藤ハザマ|生成AI「AKARI Construction LLM」導入
安蔵ハザマでは、2024年1月より燈社の「AKARI Construction LLM」を導入しています。これは建設分野の専門知識を有する生成AIで、データベースに格納された施工計画書や技術文書などの社内ノウハウが取り込まれているのが特徴です。
今後は特許や論文、関係する法律等のデータベースとの連携や、設計や研究開発等での過去実績を学習した画像・動画・音声の生成も視野に開発が進められています。安藤ハザマ独自の生成AIの開発を進めることで、さらなるDX化を実現する予定です。
まとめ
AIの活用が身近になる中で、ディープフェイクや嘘の情報との判断が付かなくなる点が問題になっています。AISI等の機関で安全性評価基準が検証されており、AI倫理に関する迅速な対応が求められます。