:
AlphaGoの父 ハサビス「人工知能は正確に使わなければならない」
jp.xinhuanet.com | 発表時間 2017-06-05 09:49:43 | チャイナネット | 編集: 郭丹

   「AlphaGoの父」と呼ばれるデミス・ハサビスは、「人工知能は正確に使わなければならない」と人びとに呼びかけている。経済日報 中国経済網の記者に「正確」とは何かと問われると、ハサビスは、自分には2つの原則があるのだと語った。まず、人工知能は、全人類に幸福をもたらすのに使わなければならず、違法な用途に使ってはならない。同時に、人工知能技術は、少数の企業や少数の人が使うものであってはならず、共有しなければならない。

   新たな技術は往々にして、新たな不安と挑戦とをもたらす。第三者機構によって発表された「人工知能影響力報告」によると、人工知能に関する話題でユーザーが最も関心を寄せているのは、(1)自分の仕事が代替される可能性はあるか、(2)AIの発展がもたらす危害、(3)AIの発展がもたらす法律 道徳問題――の3つで、ほとんどがマイナスイメージのものだった。これらの不安はまったく根拠を欠いたものとは言えない。人工知能は技術面では急速に成長しているが、人類社会との良好な相互作用を本当に実現するには、規範や規制、安全、倫理などまだ多くの問題を解決する必要がある。

   まず考えるべきなのは、「正確」なアルゴリズムとは何かということだ。騰訊研究院研究員の曹建峰氏によると、アルゴリズムそのものに問題があっても、一部のレコメンドアルゴリズムの運用にはあまり支障はない。だが犯罪評価や信用貸付、雇用評価など人びとの利益に密接にかかわる場面にアルゴリズムを応用する場合は、大規模な運用がなされ、特定の誰かをターゲットとしたものではないために、状況の類似したグループや人種の利益に影響を与える可能性がある。規模という要素は大きい。「例えば米国の一部の裁判所が使っている犯罪リスク評価のアルゴリズム『COMPAS』は、黒人に対してシステマティックな差別をもたらしていると証明されている」

   アルゴリズムが「差別」をもたらすは、アルゴリズムをトレーニングするデータそのものが正確で全面的であるかにかかっている。また大多数の人びとの状況だけを考えれば、少数者の利益にも目を向けることは難しくなる。全面的で大量のデータが欲しいと考えれば、人工知能は、プライベートという問題にも直面せざるを得ない。「データはすでに、AI時代の新たな石油となっている。だが敏感なデータを含む大規模なデータのAIによる収集 使用は、プライベートに対する脅威となり得る。また各種サービス間でデータが大量に取引され、データの流動がますます頻繁になり、データが新たな流通物となっていることを考えると、自身のデータに対する個人の制御と管理が弱まる可能性もある。人工知能の発展過程で個人のプライベートをいかに保護するかは依然として解决の必要な問題だ」と曹建峰氏は語る。

   さらに人工知能そのもののセキュリティの問題もある。ITセキュリティソフトメーカー「360」副総裁の顔水成氏は、ロボットが家庭に入っていく中、「起こり得る安全でない行為には注意が必要となる。特定の状況では、ロボットには依然として、制御の困難な状況が起こり得る」と語る。もう一方では、エージェント全体の情報セキュリティ問題もまだ存在し得る。「ハッカーは、ネットワークまたはほかの連接を通じてエージェントを制御し、人身や財産、セキュリティを損なう可能性がある」

   人工知能は私たちに新たな時代をもたらしつつある。この新たな時代の変化は、アルゴリズムの改良や新たなサービスの出現、試合での勝利などにはとどまらない。人工知能は、新的たなエンジンとして産業革新を推進し、私たちの生活を変えつつある。人工知能が私たちの生活を定義し直し始める中、人びとは、人間と人工知能とがどうすれば碁盤の同じ側に座ることができるかを考えざるを得なくなっている。

 

(チャイナネット)

 

推薦記事:

中国が「脳型AI国家実験室」設立

新華網日本語

AlphaGoの父 ハサビス「人工知能は正確に使わなければならない」

新華網日本語 2017-06-05 09:49:43

   「AlphaGoの父」と呼ばれるデミス・ハサビスは、「人工知能は正確に使わなければならない」と人びとに呼びかけている。経済日報 中国経済網の記者に「正確」とは何かと問われると、ハサビスは、自分には2つの原則があるのだと語った。まず、人工知能は、全人類に幸福をもたらすのに使わなければならず、違法な用途に使ってはならない。同時に、人工知能技術は、少数の企業や少数の人が使うものであってはならず、共有しなければならない。

   新たな技術は往々にして、新たな不安と挑戦とをもたらす。第三者機構によって発表された「人工知能影響力報告」によると、人工知能に関する話題でユーザーが最も関心を寄せているのは、(1)自分の仕事が代替される可能性はあるか、(2)AIの発展がもたらす危害、(3)AIの発展がもたらす法律 道徳問題――の3つで、ほとんどがマイナスイメージのものだった。これらの不安はまったく根拠を欠いたものとは言えない。人工知能は技術面では急速に成長しているが、人類社会との良好な相互作用を本当に実現するには、規範や規制、安全、倫理などまだ多くの問題を解決する必要がある。

   まず考えるべきなのは、「正確」なアルゴリズムとは何かということだ。騰訊研究院研究員の曹建峰氏によると、アルゴリズムそのものに問題があっても、一部のレコメンドアルゴリズムの運用にはあまり支障はない。だが犯罪評価や信用貸付、雇用評価など人びとの利益に密接にかかわる場面にアルゴリズムを応用する場合は、大規模な運用がなされ、特定の誰かをターゲットとしたものではないために、状況の類似したグループや人種の利益に影響を与える可能性がある。規模という要素は大きい。「例えば米国の一部の裁判所が使っている犯罪リスク評価のアルゴリズム『COMPAS』は、黒人に対してシステマティックな差別をもたらしていると証明されている」

   アルゴリズムが「差別」をもたらすは、アルゴリズムをトレーニングするデータそのものが正確で全面的であるかにかかっている。また大多数の人びとの状況だけを考えれば、少数者の利益にも目を向けることは難しくなる。全面的で大量のデータが欲しいと考えれば、人工知能は、プライベートという問題にも直面せざるを得ない。「データはすでに、AI時代の新たな石油となっている。だが敏感なデータを含む大規模なデータのAIによる収集 使用は、プライベートに対する脅威となり得る。また各種サービス間でデータが大量に取引され、データの流動がますます頻繁になり、データが新たな流通物となっていることを考えると、自身のデータに対する個人の制御と管理が弱まる可能性もある。人工知能の発展過程で個人のプライベートをいかに保護するかは依然として解决の必要な問題だ」と曹建峰氏は語る。

   さらに人工知能そのもののセキュリティの問題もある。ITセキュリティソフトメーカー「360」副総裁の顔水成氏は、ロボットが家庭に入っていく中、「起こり得る安全でない行為には注意が必要となる。特定の状況では、ロボットには依然として、制御の困難な状況が起こり得る」と語る。もう一方では、エージェント全体の情報セキュリティ問題もまだ存在し得る。「ハッカーは、ネットワークまたはほかの連接を通じてエージェントを制御し、人身や財産、セキュリティを損なう可能性がある」

   人工知能は私たちに新たな時代をもたらしつつある。この新たな時代の変化は、アルゴリズムの改良や新たなサービスの出現、試合での勝利などにはとどまらない。人工知能は、新的たなエンジンとして産業革新を推進し、私たちの生活を変えつつある。人工知能が私たちの生活を定義し直し始める中、人びとは、人間と人工知能とがどうすれば碁盤の同じ側に座ることができるかを考えざるを得なくなっている。

 

(チャイナネット)

 

推薦記事:

中国が「脳型AI国家実験室」設立

010020030360000000000000011100531363405181