EUがAIを包括規制【するという予定(2026年施行予定)】

New Challenge

土曜の新聞で知った規制

新聞読み溜めはやめましょう。私は土曜(2023年12月9日)の新聞を翌週の水曜に読んでます。もっと早く吟味、記事化すればよかった!!共感できる未来が実現するでしょう!!

具体的にはAIに関する規制の話です。欧州連合(EU)の主要機関は人工知能(AI)の包括的規制案に大筋合意しました。2026年頃の施行を目指しています。

合意の枠組み

合意の大枠はAIの提供企業に対しての透明性の義務化です。また倫理的内容を踏まえてAIのリスクを規定、ルール化します。

人工知能(AI)の包括的な規制案は、技術の進展と社会への影響を考慮に入れ、倫理的かつ安全なAIの開発と利用を確保することを目的とします。以下、想定される素案を考えて見ます。

透明性と説明責任の確保:

    • AIシステムがどのように意思決定を行うかを理解可能で説明可能な形で提供することを要求。
    • 意思決定プロセスにおいて透明性を確保し、利害関係者に対して説明責任を果たせるようにする。

データの適切な取り扱い:

    • AIのトレーニングデータにはバイアスが含まれる可能性があるため、公正かつ非差別的な結果を保証するための対策。
    • 個人情報の保護とデータセキュリティの確保。

安全性と信頼性の向上:

    • AIシステムの設計と運用において安全性を確保し、予測できない悪影響を最小限に抑える。
    • セキュリティリスクに対する適切な対策。

倫理的な利用の促進:

    • 社会的価値と倫理規範に合致するようにAIの利用を促進する。
    • 特に弱者・年少児童の感情を阻害することの無いように配慮する。
    • 特定の用途において人権や個人の尊厳を尊重する。

監督と規制機関の設置:

    • AIの利用を監視し、違反があった場合には対応できるような独立した規制機関の設置。
    • 適切な罰則や制裁措置の導入。

産業界との協力:

    • 産業界と協力し、最善の慣行を共有するためのフォーラムや協議会の設置。
    • 利害関係者との対話を通じて、進化する技術に対する規制を柔軟かつ効果的に適用。

教育と専門家の育成:

    • AIの開発者や利用者に対する倫理的なガイドラインや最善の慣行に関する教育プログラムの実施。
    • AIに関する専門家の育成を促進し、技術の進展に対応できる人材の養成。

これらの要素は、技術の進展を支えつつ、その利用が社会に対して負の影響を最小限に抑えることを目指す包括的なAI規制案の一部です。ただし、具体的な規制は技術の進展や社会の変化に応じて適切に調整される必要があります。

予想される今後の展開

例えば情報弱者(情弱)の人々の弱みに漬け込むAIの仕組みはEUとして認めません。そうした制裁を含む強いメッセージがヨーロッパから出たことで、文化経済的なつながりの強いアメリカが大きく反応するでしょう。日本も当然、対応を余儀無くされます。例え日本企業が採用活動をする時に同規制に対して注意が必要です。

AIプログラムの中で生成側のプログラムと監査側のプログラムが議論するみたいです。(変な例えでしょうか??)

本ブログでの対応

先ず、本稿をプライベートポリシーとして掲げる予定です。

そして実際に執筆でOpen-AI社のAIツールを使っているのでその旨を明記します。使用した各ページに記載するよりもサイドバーに記載して常時讀者が見えるように記載したいと考えています。

そして実際にパイソンを使ってAIを作成する事を目指します。
具体的には特定のプロセスを考えています。

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

雑記の纏め記事に戻る

Python関係の関連記事

コメント

タイトルとURLをコピーしました