ブログ

【新聞から読み解く今】AIが全知全能でない限り無批判に信じてはならない(2018/11/28)

1994年生まれ。埼玉県立川越高校、法政大学文学部卒。ライターが記事を作成する行為は「無から有を生み出す行為」であり、無のときにはなかった価値を提供する意味のある行為と感じている。「膨大な知識量と独自の視点で世の中の潮流を見極めるコンテンツメイカー」を目指して活動中。

欧米に比べて整備が遅れていると言われているAIのルール作りですが、少し前進したようです。

政府がAIに関する7つの原則をまとめました。これをもとに、AIに関する法律の整備等が進められていきます。

今回はその中の1つ、「AIを利用した企業に決定過程の説明責任」に注目したいと思います。

 

最近では、金融機関の投資や人材採用の判断の一部をAIに任せるケースが増えてきました。これは、投資や人材採用という意思決定にAIを利用している状態です。

万が一この意思決定になにか問題があれば、この原則に則って企業に説明責任が生まれることになります。

この時「AIがそう言ったから」は通用しません。なぜなら、AIはあくまでツールであって、意思決定者ではないからです。

AIが言ったことはあくまで参考にするものであって、100%鵜呑みにしてはならないのです。

 

なぜAIの言うことを100%信じてはいけないのか。それは、AIは間違った判断を下すことがあるからです。

例えば、Amazonが開発していた人材採用を目的としたAIは、開発中に女性差別をするようになったとして話題になりました。

はっきりとした原因は特定できなかったようですが、AIが学習する情報に何か問題があったのではないかと考えられています。

 

AIであっても、言っていることが正しいとは限りません。時には間違った判断を下してしまいます。

同様に、計算式を理解していないExcelの解や根性論のみを振りかざす上司からの助言、出店が不明瞭なテレビでの主張などが示していることも、絶対に正しいとは言い切れません。そしてそれを無批判に信じてはいけません。

何事も、100%正しいものはないのです。

大切なのは、「本当にそうだろうか」という疑問をワンクッション置くことではないでしょうか。そうすることで「◯◯が言っていたから間違いない」という思い込みを解くことができるのではないかと思います。

 

もちろん、このような私の主張も、100%正しいものではありません。

この記事で言っていることに対しても「本当にそうだろうか」と考えてみることが大切だと私は思います。

 

参考

AIの判断、企業に説明責任 政府が7原則 混乱回避へ法整備」(2018/11/27)、日本経済新聞

あわせて読みたい

カテゴリー