2016-03-25 人工知能 memo 「米マイクロソフトの人工知能、ツイッターで差別発言連発」(日経 2016/3/25 16:20) テイは最初から差別的な発言をするようにプログラムされていたわけではないが、大量の差別的発言を浴びせられるうちに、それを「学習」し、自分でも同様の発言を返すようになったとみられる。マイクロソフトは不適切なツイートを削除し、ソフトウエアの修正にあたっている。 人工知能じゃなくて人間でも、こういう奴が多いよな。ネットでもリアルでも、反知性が知性を駆逐する時代。やだね。