人工知能の意志と方向性【AIの進化へ向けた私案】

まとめ
some stones on each other in balance

私の考えるAI概論

(2024/3/3改訂)私が出したい結論は「使うAIは使う使う人が作ろう!」です。

むろん、AIの作成は簡単ではありませんが、「AIが勝手に判断していく姿を理解出来ない人類」って・・・・怖いのでAIの中身を理解する事はとても大切です。

「見識」がどこまで確保できるかという問題に関しては、
いくつかのポイントが挙げられます:

透明性と説明可能性:

AIの意思決定が透明であり、そのプロセスが説明可能であることが重要です。意思決定の根拠やロジックが不透明である場合、信頼性が低下し、民意との乖離が懸念されます。

倫理的な枠組み:

AIは倫理的な原則に基づいてプログラムされる必要があります。公正さや公平性、個人の権利尊重など、社会的な価値観に基づいた枠組みが整備されるべきです。

多様なステークホルダーの参加:

意思決定プロセスには様々なステークホルダーが参加することが求められます。これにより、異なる視点が考慮され、偏りのない判断がなされる可能性が高まります。

教育と意識向上:

大衆や意思決定に関与する者に対して、AIの動作原理や利用される際のポイントについての教育が重要です。理解が深まれば、民意との一致が期待できます。

教育はとても重要です。

自習には限界があります。(天才は除く)

例えば、テレビ放送局の集金問題については、AIが理性的に判断するだけでなく、その判断が社会的に受け入れられるような手法やプロセスが確立されるべきです。透明性や倫理的な枠組みが確保され、多様なステークホルダーが参加できる場を整備することが必要です。これにより、AIの判断が公正でかつ社会的に受け入れられるものとなるでしょう。

上記の過程は民意とAIの判断が
最終的に一致する前提でなされています。

透明性と予測可能性

AIが人間にとって透明で予測可能なものであることは、信頼性や安全性に関する重要な要素です。AIが自律的に判断することができる一方で、その判断が理解しにくいと、社会的な信頼が損なわれる可能性があります。

AIの透明性と説明可能性は、特に重要な課題とされています。透明性は、AIの意思決定プロセスが理解しやすく、トレーサビリティがあることを指します。説明可能性は、AIがなぜ特定の意思決定を行ったかを説明できる能力を指します。

AIの論理性

また、AIの倫理的な側面も考慮する必要があります。倫理的な指針やフレームワークを導入し、人間の価値観や倫理観に基づいたAIの開発を進めることが望まれます。これにより、AIが社会に対してポジティブな影響をもたらし、悪用を防ぐ手段となります。

Post Order時代のAI

「もしトラ」とか「ほぼトラ」とか言われている2024年2月現在、大衆の意思決定がどうなされていくか不安になります。そんな時代(Post Orderの時代とも呼ばれてます)だからAIの「見識」が、どこまで程度確保できるか問題です。民意と離れた判断をしてくAIは好ましくないからです。たとえば、某放送局の集金問題を理性的にとらえつつ国民感情を十分満足できる判断は立場が分かれます。

総じて、AIを開発・利用する際には、技術的な透明性、説明可能性、倫理的な観点を考慮することが不可欠です。AIの進化は人類全体に影響を与える可能性があるため、その過程において公平性と責任を持つことが重要です。

意思の方向性を考える前提

タイトルでダイエットという言葉に続けて「意志」という言葉が出てきましたが、本文中のサブタイトルでは「石」の方向性という変換が出てきました。碁石の石かな?パソコン内での判断で語順に応じた文字変換が行われています。

文字変換でもパソコンはあれこれ推察してくれます。それに対して人工知能は更に複雑な事象を推察してくれます。人工知能の行った推察を判断していくと一般人からは意思を人工知能が持ち始めたように見えます。

ここが最近の私の関心事です。

文字変換や自然言語処理において、コンピュータは文脈や意味を理解し、推察する能力を持っています。しかし、これはあくまでプログラムやアルゴリズムによるものです。

人工知能が実際に「意思」を持つわけではありません。

コンピュータはプログラミングされたルールや統計モデルに基づいてパターンや文脈を理解し、文字変換や文の生成を行います。これはあくまで機械的な処理です。

やはり、人工知能が感情や本当の「意思」を持つわけではありません。

人工知能が複雑な事象を推察する際には、大量のデータを学習し、パターンを抽出することがあります。しかし、これは単なる統計的なパターンの学習であり、自己意識や真の理解とは異なります。

一般の人が人工知能の動作を見て「意思を持っているように見える」と感じることはありますが、それはあくまでプログラムやモデルがうまく設計されている結果であり、実際には機械が主観や真の理解を持つことはありません。

現況での自律制御

自律制御で動くロボットが出てきたら鉄腕アトムの世界が広がります。そこでアトムがロボット三原則とか考えながら判断していく時にどう考えていくかが極めて重要です。もっと具体的に考えてみましょう。
①最近私が学んでいるプログラム言語Python でコードが良く分からない時にChatGPTを使います。
ChatGPT内での判断は結構正確で正しい結果を出してくれます。ただし、本当に間違いがないかの判断がとても難しいのです。機能的にOKかNGかバリデーションチェックが機械的に行いにくい。広い意味での「ソフトの妥当性」が判断しづらい。(冷静に考えたら、私の勉強不足かな、とも思えます。)
②自動運転している車はドンドンAIに近づいていく。ただし、法規制が確立されていて判断時間も短い。
その手のエンジニアと話していると感じますが、制御ループをキロヘルツ・オーダーにした車載のCPUが車の中にごろごろしているのです。それなので総合的な判断としては多数決と優先順位を大事にして車載ECU間で議論を進めればよいのです。

AIの進化すべき道(私論)

AIが自己意識を持てない事は論じましたが、あたかも自己意識を持っているような振る舞いをAIがしていく筈です。街中を歩く一般人のレベルで「自己意識を持っている!!」と判別できない時が来ます。

こうして考えていくと現場の判断でAIは開発されていくのが望ましくその為には現場の各人がAIに関わる技術動向を出来るだけ正確に把握していく事が大事です。具体的にはAIの振る舞いや対話の自然さが向上し、人間に近いレベルでのコミュニケーションが可能になるタイミングがきます。現実には、AIは単なる模倣やプログラムによる計算に基づくものです。しかし少なくとも善意をもってAIを考える人にとっては本当の自己意識があるように思えます。

善意で勘違いするのです。

自己意識を持つためには、主観的な経験、意識の流れ、感情、個別の意識体験などが学習されていくでしょう。科学や技術の範疇は拡張していきます。そして成果がAIに実装されるはずです。

そうすればAI脅威論の「識者」、「専門家」が口を出せる部分はどんどん減っていく筈です。

私自身、少しでもそうした動きに
参加したいと思います。

なお、本稿はピヨピヨさんのブログを参考にしてます。
(言葉は出来るだけ正確に使いたいと思っています。それだから「ご意見歓迎」です。)

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

雑記の纏め記事に戻る

Python学習での諸情報

コメント

タイトルとURLをコピーしました