狠狠撸

狠狠撸Share a Scribd company logo
人工知能が浸透した社会の
情報倫理学
吉備国際大学
大谷卓史
京都大学白眉センター
2015年2月24日
まずは???情報倫理とは何か
? ICTによって「指針の空白」(policy vacuum)が生
まれる
– 「指針の空白」:従うべきルールがわからず判断がで
きない状態(J. Moor, D. Johnson)
– ICTが仲立ちとなる行為による「できること」の範囲の
拡大と行為の性質?態様の変容
– 法律?慣習の適用の混乱と不在
? 「指針の空白」の原因:「概念の泥沼」
(Conceptual Muddle)
– ICTが可能にする行為の性質とその影響に関する概
念の混乱
情報倫理をつくる
? 情報倫理:情報社会におけるルール?行動指針。
– ICTの製品?サービスを企画開発し、利用する際にし
たがうべきルール。
– 専門職倫理としては、ICT系学協会の倫理綱領(Code
of Ethics)
? 情報倫理は、「指針の空白」を埋めることを目的
に、なければ「つくる」もの。
– 従来の習慣や取り決めによるルールが利用できる場
合は、それに従う。
– 関係者が納得できるルールがない場合は、話し合っ
てルールをつくる。
情報倫理とは何か
? ICT専門職の倫理から情報化社会を生きる万
人の倫理へ
– ICTが政治?経済?生活すべてに浸透した社会
– ICTが行為を媒介し、行為の性質や帰結に大きな
影響を与える
情報倫理とは何か
? コミュニケーションとメディアの倫理としての情
報倫理
? コミュニケーションは「私たち」をつくる
– コミュニケーションによって、私?私たちが何もの
か世界がどうあるかを知る。
– コミュニケーションによって、私たち自身の知性や
性格、態度などが形成される。
– コミュニケーションが、私たちを形成し私たちがつ
くる社会をつくる。
ところで。私たちはすでに???
? 人工知能(弱いAI)が浸透しつつある社会に
生きているのではないでしょうか?
? まずは、現在の社会の情報倫理学的課題を
考えます。
これもあれも弱い础滨???
AIとサーチエンジン
? サーチエンジンのインデクシングとサーチは、
AI研究で培われた自然言語処理のたまもの。
? AI研究も思考のアルゴリズムを発見するより
も、強力なコンピュータパワーと巨大データの
蓄積と検索?解釈による知的かつ対話的な問
題解決支援へと移行。
? 巨大データを前提とする機械学習(ディープ
ラーニング)への(再)着目。
ロボットの知能はクラウドに???
? Pepperおよびグーグルカーなどの例にみるよ
うに、ロボットの知的処理は個体で実現する
のではなく、クラウドサーバーとの通信で実現。
? Pepperおよびグーグルカーは、大規模クラウ
ドデータ検索サービスのUI。
Cloud Robotics
EUのRoboEarthプロジェクト
クラウドロボティクスのイメージ
(風間: 2013)
Google Driverless Car
ATR知能ロボティクス研究所の
買い物支援ロボット
クラウドロボティクスの例
? Pepperの場合、
– ユーザーの感情を認識し、ユーザーに対応して
パーソナライズされる。
– ユーザーの個人情報をクラウドに蓄積し分析し、
より自然かつユーザーに適した対話を実現。
? グーグルカーの場合、
– 地図?画像?運転記録データ?天気?交通情報を
索引検索して空間位置情報を決定、意思決定。
– 各車からの情報を共有して、統計的最適化を
行って機械学習する。
各種のクラウド型AIサービス
IBM Watson(現在クラウドに移行中) しゃべってコンシェル(NTTドコモ)
ちびまる子ちゃんver.
Microsoft Cortana Apple Siri
クラウドベースの各種AIサービス
KDDI総研[2014: 43]より。
クラウド型AIサービスの例
? しゃべってコンシェルの場合、
– 音声でスマホ操作。
– 音声でデータベース検索、ネット検索、プログラム型
検索で質問に回答。
– 入力音声は「ドコモクラウド」上で音声と内容を解析。
? Cortanaの場合(Windows10での対応)、
– 音声でファイル検索?操作、Bingを検索。
– 会話やさまざまなデータをもとにユーザーにパーソナ
ライズ。
– スマートフォン、タブレットで共通のCortanaを利用し、
文脈を把握して継続して作業可能。
ビッグデータのプラットフォーム
としてのサーチエンジンとAI
? サーチエンジン:ビッグデータの蓄積と分析の
プラットフォーム
? AIやロボット:ビッグデータの入出力UI
KDDI総研(2014)より
サーチエンジンとクラウド型AI?ロボットの
情報倫理学的課題はおそらく共通
? 広義のプライバシーと自律に係わる課題
? 多くのサービスは企業が提供するもので、需
要の理解と消費者行動の誘導への応用が、
プライバシーと自律の問題を引き起こす。
? インターネットの無料サービスの多くは、利用
者情報が商品。
? たとえば???
サーチエンジンとAIの
プライバシーと自律に係わる課題
? サービス利用による個人情報の収集?蓄積?
分析→プロファイリングによる個人特定と人
物像の解釈
? パーソナライズ技術や検索結果表示技術に
よるフィルタリング→環境(?気分)の解釈の操
作、行動?人間関係の操作
? 情報セキュリティ課題と併せて、上記のプライ
バシー&自律の問題への配慮が必要。
プライバシー問題への対応
? Siri:音声認識向上のためのみ音声入力情報を
利用すると明記。
? しゃべってコンシェル: 「ユーザー個人がどう使っ
ているか、個人情報と利用内容は紐付かない」。
全体的利用動向は確認可能(関口 2012)
? Pepper:利用規約不明(Matsukawa 2014)。
? Cortana:ソーシャルメディアなどからユーザー個
人情報を入手、徹底したパーソナライズ(小林
2014)
そして、将来は???
? 2020年の情報倫理学的課題を類型的に整理
すると???
? ここからは、「『激論! 先端ICT の光と影』
ワークショップ~これからの研究に必要な倫
理的?法的?社会的課題を考える~」(2014年
11月7日)から。
2020年にどのような
技術?社会が実現されるか?
? 自動走行車による(かなり)安全かつ低環境負荷の交通
– 自動車?道路のセンサーネットワーク
– 道路情報などの知識ベース活用
– ルール?アルゴリズムにもとづく高度な自動制御(ex. 功利主義的アル
ゴリズム)
? (結構)高度な見守り?助言?支援システム
– センサーネットワーク(位置情報や健康状態計測など)によるビッグ
データ収集
– 健康?行動に関する統計的予測
– 意思決定支援システム
? 学習者情報活用による生涯的な発達支援?選抜システム
– オンライン学習によるビッグデータの収集
– 学習者情報に基づく生涯発達の統計的予測
– 学習者情報の労働市場における活用
映画?アニメから考える
Eagle Eye (2008)
角川エンタテイメントよりDVD発売。
Gattaca (1997)
ソニー?ピクチャーズ?エンターテイメントよりDVD発売
「虐殺器官」「harmony」
2015年ノイタミナでアニメ化?放映予定。
http://http://project-itoh.com/
「Eagle Eye」問題
? 人間の意思決定vsAIの意思決定→AIによる
判断の責任帰属の問題
? アルゴリズムを与えた企業?人間の製造物責
任(ex. 功利主義的アルゴリズム)(Lin 2014)
? AIへの権限?責任移譲(Kuflik 1999)→人間は
自動走行車に乗って寝ていてOKなのか?
JohnsonとNoormanの勧告
(Johnson and Noorman 2015)
? 原則:「人工的エージェントの行動の責任は人間
が負うべきである」。
? 勧告1:「人工的エージェントは社会技術システ
ム、つまり人工物と社会的実践の構築物であっ
て、それらの相互作用を通じて特定の課題を達
成すべく編成されていると理解すべきである」
? 勧告2:「責任問題は、人工的エージェント技術
の開発初期段階で扱うべきである」
? 勧告3:「人工的エージェントが自律的であるとい
う主張は、法的かつ明示的に特定されるべきで
ある」
2015年2月追加情報。
拡張された「Gattaca」問題
? レモン問題の回避ニーズvs根本的不確実性
? 学習データのきめ細かい収集と統計的分析
→個人の知的?社会的達成の高精度の統計
的予測?
? 統計的傾向と決定論の取り違えの問題→遺
伝子決定論と学習決定論
? Cf. Vedder 2004
「虐殺器官」「harmony」問題
? ユビキタス監視/看視社会の成立と利便性
のトレードオフ
? 安全?安心は全面的監視の十分な理由にな
るか? (Solove 2011)
? プライバシーはなぜ必要か?隠し立てするべ
きものがなくても。
? 「計数されざる者」の自由(Eguchi 2001;
Posner 2013; van den Hoven 2008)
? 看視における信頼(Goffman 1967=2012)
まとめ:
自由?責任?プライバシーが問題?
? AIの意思決定への権限移譲問題→賠償責任
と行為者性
? 統計的推論の誤適用問題→レモン回避欲求
と不確実性の対立
? 監視/看視の高度化と全面化→「計数されざ
る者」の自由と福利(快?安全など)の対立
当面の情報倫理学の課題
? プライバシーの危害と迷惑、プライバシーの概念
の解明
? 医療分野におけるインフォームド?コンセントとは
異なる「同意」の意義と実装方針の解明
? プライバシーと自律の関係とそれらの限界の考
察???プライバシーと自律は必然的な結びつき
があるのか、技術による認知?感情の操作、行
動変容はどこまで倫理的に許容されるか
? 自律ロボットと人間の責任???人間が責任をもて
るように設計すべき(Noorman and Johnson
2014; Johnson and Noorman 2015)
参考文献
? Eguchi, Satoshi(2001)"The Importance of Privacy in Education", The
Second International Workshop for Foundations of Information Ethics,
Hiroshima, February 27, 2001.
? Fried, Charles (1968) "Privacy," The Yale Law Journal, Vol. 77, No. 3, 475-
493.
? Gavison, Ruth (1980) "Privacy and the Limits of Law," The Yale Law Journal,
Vol. 89, No. 3, 421-471=(1999)「プライバシーと法の限界」奥田太郎訳,
『情報倫理学研究資料集I』.
? Goffman, Erving (1967) Interaction Ritual: Essays on Face-to-Face Behavior,
Anchor Books =(2012)『儀礼としての相互行為: 対面行動の社会学 新訳
版』浅野敏夫訳, 法政大学出版局.
? Goldberg, Ken (n.d.) “Cloud Robotics and Automation”
? Hoven, Jeroen van den (2008)"Information Technology, Privacy, and the
Protection of Personal Data" in Hoven, Jeroen van den, and John Weckert,
eds. 2008. Information Technology and Moral Philosophy, Cambridge
Studies in Philosophy and Public Policy. Cambridge: Cambridge University.
参考文献
? Noorman, Merel and Johnson, Deborah G. (2014) “Negotiating Autonomy
and Responsibility in Military Robots,” Ethics and Information Technology,
Vol. 16, Nol.1, pp.51-62.
? Johnson, Deborah G. and Noorman, Merel (2015) “Recommendations for
Future Development of Artificial Agents,” IEEE Technology and Society
Magazine, Vol.33, No.4(Winter 2014), 22-28.
? Kuflik, Arther(1999) "Computers in Control: Rational Transfer of Authority
or Irresponsible Abdication of Autonomy?" Ethics and Information
Technology, Vol.1, No.3, 1999, pp.173-184=(2001)「管理するコンピュータ:
それは合理的な「権限の委譲」か、無責任な「自律の放棄」か?」北口景
子訳, 『情報倫理学研究資料集 III』.
? Lin, Patrick (2014) "Here’s a Terrible Idea: Robot Cars With Adjustable
Ethics Settings," WIRED, 08.18.14 <http://www.wired.com/2014/08/heres-
a-terrible-idea-robot-cars-with-adjustable-ethics-settings/>.(最終アクセス
日:2014年11月5日)
参考文献
? Matsukawa, Takuro (2014) 「Engadget Fes 高木浩光 x や
まもといちろう セキュリティ&プライバシー対談 #egfes
(更新:動画追加)」『Engadget』2014年11月24日
? Moor, James H. (1999)"Using Genetic Information While
Protecting the Privacy of the Soul," Ethics and
Information Technology, Vo.1, No.4, 1999, pp.257-
263.=(2001)「魂のプライバシーを守りながら遺伝情報を
利用すること」樋口未来訳, 『情報倫理学研究資料集
III』.
? Nagel, Thomas (1998) "CONCEALMENT AND EXPOSURE,"
Philosophy & Public Affairs, vol. 27 no. 1, 3-30.
? Posner, Richard (2013) "Privacy is Overratede" New York
Daily News, April 28, 2013
参考文献
? Rachels, James (1975) "Why Privacy Important?"
Philosophy & Public Affairs, Vol. 4, No. 4, 323-
333.=(1999)「なぜプライバシーは重要なのか」松永喜代
文訳, 『情報倫理学研究資料集I』
? Solove, Daniel (2011) Nothing to Hide: the false tradeoff
between privacy and security, Yale University Press.
? Vedder, Anton (2004) "KDD: Privacy, Individuality and
Fairness," in Spinello, Richard A. and Tavani, Herman T.
eds. (2004) Readings in Cyberethics, Jones & Bartlett,
462-470
? Yegulalp, Serder (2013) “Watson as a service: IBM preps
AI in the cloud,” Inforworld, Nov. 15, 2013
参考文献
? でじねこ.com(2014)「ソフトバンクがロボット事業に参入!
記者会見のレポートまとめ」2014年6月5日.
? 原 如宏(2012)「しゃべってコンシェルで利用者急増、ドコ
モクラウドをトコトン試す」『日経トレンディ』2012年6月28日.
? 東中竜一郎?貞光九月?内田渉?吉村健(2013)「しゃべっ
てコンシェルにおける質問応答技術」『NTT技術ジャーナ
ル』Vol. 25, No.2, 56-59.
? 風間博之(2013)「クラウドロボティクスが導く世界 スマー
トサービス基盤」NTTデータ,2013年1月31日.
? KDDI総研(2014)「I CT先端技術に関する調査報告書」総務
省.
? 木村岳史(2014)「ロボット、究極のクラウド端末の夢」『日
経コンピュータ』2014年7月10日.
参考文献
? 小林雅一(2014)「マイクロソフトの音声アシスタ
ント「Cortana」が持つ意味---個々のユーザーに
カスタマイズされた製品の時代へ」『現代ビジネ
ス』2014年3月13日.
? NEC(2014)「ロボットが活躍する未来がそこ
に!”クラウドの頭脳”を得てさらに進化したコ
ミュニケーション?ロボット」2014年1月28日.
? 関口 聖(2012)「ドコモに聞く 利用件数は1億超、
「しゃべってコンシェル」開発の舞台裏」『ケータイ
Watch』2012年7月25日.
? “Could Robotics,” Wikipedia.

More Related Content

人工知能が浸透した社会の情报伦理学