こんにちは、KOMです。
先日、日経新聞にAIに関する記事が掲載されていました。
AIの開発運用に関してOECD(経済開発協力機構)が基本方針を採択したというものです。
そもそもOECDって何?
そもそもOECDって何?あんまり聞いたことないんだけどって思ったのwikiでし食べてみると、
ヨーロッパ、北米等の国々によって、国際経済全般について協議することを目的とした国際機関。 OECD(wiki)
まぁ、そのままですね。ちなみに、本部は、パリにあります。
そんなOECDが採択したのは、AIに関する開発と運用に関する指針です。ようするに、「ロボット三原則」のようなルールをちゃんと作りましょうということです。
ロボット工学三原則
ちなみに、ロボット工学三原則とは、ロボットが人間世界で正しく機能するために作られた3つの原則のことです。米国のSF作家、アイザック・アシモフ(1920~1992年)によって提唱されました。
- ロボットは人間に危害を加えてはならない
- ロボットは人間の命令に服従しなければならない
- ロボットは自己を守らなければならない
映画が好きな方は、SF映画なんかで耳にしたことがあるのではないかと思います。この原則に守られた人間がアンドロイドにひどいことをしたりといったこともあるので、人間側の人間性も大事だったりします。
人工知能、AIの開発・運用の基本指針
今回、OECDが採択したのは、主に次のようなことです。
人間中心
公平性
透明性・説明責任
人間中心
まず、一つ目の人間中心というのは、あくまでも人工知能は道具であり、人間が厳格にコントロールしなければならない。
公平性
公平なデータを集め、偏見を排除しなければいけないということです。例えば、最近では採用に人工知能を使っているケースがありますが、その際の選択基準として、男性を優遇するなどをしないようにしなければいけません。
AIに与える情報に偏見の混じったデータが与えらえた場合に、それらを排除することも重要になる。
透明性・説明責任
これは、AI、人工知能がいかにしてその解答にたどり着いたのかを明確に説明させる技術が必要ということです。
例えば、自動運転の車が事故を起こした際には、どういう原因で事故が発生したのかを説明させなければ、再発防止策を考えることができない。
最近起きた横浜シーサイドラインも無人自動運転の電車であったが、事故を起こしている。この事故を受けての原因調査には、かなり時間がかかると発表されていた。
このような事態を防ぐためにもAI、人工知能には、なぜそれが起きたのか?という説明責任を果たす技術が求められる。
AIのリスク抑え暴走防ぐ、OECDが開発・運用指針 (日経新聞)
具体的な内容、原文についてはOECDのページに記載してあります。
42カ国がOECDの人工知能に関する新原則を採択(OECD)
まとめ
こういう話を聞くと思う出すのは、映画「ターミネーター」ではないでしょうか。あの映画に登場する人工知能は、合理性を考えた結果人間を排除することに決め、人間と人工知能、ロボットの戦争に突入してしまいます。
あくまでもSFですが、結構現実味を帯びてきたのではないかと思います。今後の技術革新でどんどん便利になっていく半面、シンギュラリティーという人工知能が人間の知性を超えた世界がどうなるのか考えさせられます。