読書記録:三宅 陽一郎「人工知能のための哲学塾」

AI倫理を考えるにあたって、哲学的なベースを持っていた方がいいと思い購入し、「第1夜」を読んだ。が、ここでの哲学は、AIに人を再現させるにあたって、哲学的に研究された人間の心の仕組みを紹介するというもののため、僕の読書の動機と異なることが判明。それにしても面白そうだし、文章としてはわかりやすいのだけれど、他の本を読み進めるのを優先したいので、一旦積ん読コーナー行き。すみません。

読書記録:西垣 通・河島 茂生「AI倫理-人工知能は「責任」をとれるのか」

この本で述べられているAIの倫理は、企業がAI導入において検討する「AI倫理」ではなく、「倫理」そのものとのAIとの関係。

僕が感得した要旨は「倫理を問題とできるのは自律的存在である(自由な意思決定をする)人間だけである。他律的存在であるAIには倫理的な責任の対象とはなり得ない。倫理は他者への共感によって共同体内で形成されるものである。共感をすることができないAIには倫理を形成する能力はない。しかし一般人はAIが自律的であるとか、共感をするとか誤解してしまうのだ。」という感じ。

僕が法律家だからなのかもしれないけれど(上述の要旨は刑法の責任論で頻出するので)、この点を主張するためにこの本に記述されている論述が必要なのかという気がする。あと途中は他説の批判が多くて、「第4の」あたりでは挫折して一部読み飛ばしてしまった。僕としては自説の根拠にもう少しページ数を割いてほしかった。当たり前的主張であっても、それの根拠を説得的に述べられることに価値があるのではないかと思う。

「AIの発展にAI倫理の議論が置き去りになっている」という主張なのだけれど、この本の話がAI倫理の検討の基盤をなすこととの関係が僕にはよくわからなかった。

後半の「練習問題」についても回答が何か独自の視点を提示しているのかと期待したのだけれど、そういった要素はなく、「自動運転」の項だけで挫折。

読書記録・レビュー:日本IBM AI倫理チーム「AIリスク教本 攻めのディフェンスで危機回避&ビジネス加速」日経BP (2023/12/15)

一般向けなのでかなりわかりやすい記述。AIに求められる特性を5つにまとめているのみシンプルでよい。ただ書かれている各種のリスク(16+1に分類されている)が、本当にそれはリスクなのと疑問を呈したくなるものが多く、これを真に受けて余計な心配をするひとが出てしまわないかというのが心配。「その対策って読者にはできないでしょ」とか「読者がお金を払って買っている本で自社のソリューション紹介にページを割くの」と突っ込みたい部分もあったり。AI原則のまとめの整理として東大横山教授の論文を紹介してくれていたのは参考になった。この視点を本の執筆当時に記載していたことにはバリューがあると思う。ただAI事業者ガイドライン(この本に記載の8原則を包摂しているオフィシャルドキュメント)が公表された今となってみると、コンサル業の立場としてhあ、ガイドラインをより実践的にとらえるとか、理解を深くするとか、独自の視点が必要だと思う(自戒)。ガイドラインを取り巻く環境の歴史の記述はよくまとまっている。ただ変化が激しいので、その後のフォローアップは自分で調査が必要。

読書記録・レビュー:DIAMONDハーバード・ビジネス・レビュー 2023年 11月号 特集「AIリスクにどう対処するか 企業に求められる倫理と責任」

テクノロジーの進歩がもたらす「倫理的悪夢」を回避せよ
→「言葉遊びで責任を果たしたと勘違いするな」という指摘は、痛いところを突かれたと考える経営者が多いのでは。以降の記述は陳腐な感じがした。

責任ある企業としてAIをどう活用すべきか
→「組織内の全ての情報をオープンなAPIで繋ぐ」という提案は、夢想的な感じがするけれども、企業の組織改革には劇的に効く気がするし、Amazonの実例があるのなら信じて見たい気がする。「学習データのドキュメンテーションを揃えておく」は、機械学習エンジニアからすると当たり前の話なんだけれど、経営層からすると不明確になりやすいのだろうか。データのサニタイズで差別を防止できるという発想は古いし現実を見ていない感じ。他の質問回答も月並みなので読むのを途中で断念した。

テック業界が大切にすべき価値観は何か
→マーガレット・オマラ「危険なのはAIではなく、AIに振り向けられる情熱とビジネス上の動機だ」。これは正鵠を突いていると思う。いいこと言う。
→他の著者はお決まり的な倫理の説法だった。

人にまつわるデータを倫理的に取り扱う方法
→わかりやすい。ただし個人情報保護法に基づいて実施すべき内容と被るので、途中までは法律を知っている人にとってはそれの再確認。AIとの関係でのチェックでいえば、その先のプライバシーを考慮するという観点との関係が重要。「準備」の項はAIとの関係が不明。高度なプロファイリング能力がプライバシー侵害となるかという点については、もっと深い議論を聞いてみたい。

人間とAIの相互理解が、社会に創造性と安全性をもたらす
→この雑誌の特性を踏まえ門外漢の経営者さんに技術的な部分を解説する内容。その後の「AIに世界を理解させる」という話はいきなり観念的になるので、私には理解ができなかった。

AI倫理メモ ver.20240828

AI倫理の体系

ver.20240828
AI倫理を考える上での自分的メモ
本を読みながらの殴り書き状態
勉強しながら追記していきます
・「AIガバナンス」「AI倫理」としていたけれども、もっと包括的な概念として考えたいのでAI規範に変更。ただしこれもしっくりきていないのでまた変更の可能性あり。
→「AI倫理」に再度変更。AI規範の方が自分的にはしっくりくるのだけれど、AI倫理の方が一般的に使われていて話題として共有しやすい

大前提

  • AIが自分、友だち、家族、雇用主、部下、地域、社会、国、世界にプラスをもたらす可能性があるものとして積極的に受け入れる
  • だからこそAIを使い続けられるようにするための規範が必要

前提となる要注意事項

  • AI倫理は多面的な要素を含む。特定の側面への対応をしたからといって、AI倫理全般への対応が完了したわけでは無い。
  • AIがどのように使われるかを企業(経営者)が事前に完全に予測することは不可能。そこにどうやって対処するのかという視点。
  • AIの性能と倫理・コンプライアンスがトレードオフになるというジレンマが遅かれ早かれ生じる事を念頭に置く。

要点

AI規範の目的は一言で言えば何か

  • 差別を産んではいけない
  • プライバシーを侵害してはいけない
  • 正しいとは限らない
  • 理由を説明できないことを合理化できること
  • 暴走を止められないといけない
  • サービスの売り手なら:特性を説明できること(できる・できない・リスク)
  • サービスの使い手なら:機密情報をあげてはいけない
  • 開発者なら:権利を侵害して・権利侵害が高いものを作ってはいけない

規範

 aiのための特別な規範があるのではなく、人が従うべき規範をAIという側面で切り取ったもの

課題

  • 前提問題
    • モラルの多様性
  • 各種AI共通
    • 差別
    • 説明可能性
    • 責任の所在
    • プロンプトや学習データとなることでの情報漏洩
  • 再現ai
    • 再現される側の尊厳
  • カメラ系
    • プライバシー
  • 生成AI固有
    • ハルシネーション
    • 詐欺への悪用
    • 心理操作大衆操作
    • 違法有害情報の生成
  • 比較的問題性が低いもの
    • 雇用への悪影響
    • 電力消費
    • 哲学的倫理
    • スーパーインテリジェンス
      逆にスーパーインテリジェンスにならない不完全なAIのままであることの方が問題
      陰謀論のような幻想を真に受ける人をどうするか

個人的視点

  • 企業の対応策「AIガバナンス」が典型キーワード→いわゆる経営マネジメントシステムによって実現
  • マネジメントシステムという観点で捉える文献が多いけれども、多くの企業はマネジメントシステム疲れしているのでは
  • 意識の問題としてリスクにフォーカスする方が問題に対処がぶれにくい
  • AIのリスクは多数存在するけれども、個別のリスク単位でも対処しても、対処可能な範疇では

バイアス

  • データのバイアス
    • データ内部元来のバイアス
    • データ収集時のバイアス
    • データ前処理時のバイアル
  • モデルのバイアス
    • 初期学習時のバイアス
    • 追加学習時のバイアス
    • 強化学習時(RLHF)のバイアス
    • フィルタリング時のバイアス
  • 問題の本質は人間のバイアス
    バイアスにどう取り組むのかというスタンスの問題

国内

ソフトロー

  1. カメラガイドライン

ハードロー

  1. 著作権法
  2. 文化庁考え方
     学習データの著作権が及ぶ範囲
  3. 個人情報保護法
     個人情報保護委員会の注意喚起
  4. プライバシー

海外

ソフトロー

ハードロー

EU包括法
gdpr
dsa
emfa

個別論点

北山昇弁護士の見解:最終的な利用形態が個人情報でなけねは保佐目的規制を受けない?

そんなことはない

ダウンロード中に追加される場合は?

 再ダウンロードが必要?
  それは

モデルは個人情報ではない

 当然そうか?
 テキストファイルもそもそも数字の羅列
 同じデータを徹底的に学習させてパターンを獲得する場合は個人情報

目的の範囲内

 手段を含まない

外部送信規律との関係は

収集時に不可避的に含まれてしまう要配慮個人情報

 しゃーないで済むのか?
 こじょういはしゃーない的
 プライバシー侵害を固定化する
  デジタルタトゥ
 再現不可AIの学習目的に限定
 過失ならいいのか
 未必の故意はある

推知情報の該当性

 肯定説を取るべきでは
 だって事実と関係ない
 ただし取得ではない

各論

AI固有のセキュリティ

  • モデルの資産性の保護
  • 判断を誤らせる攻撃手法
    プロンプト経由・判断系AIの入力データ経由

– 学習データ自体を汚染させる攻撃手法

プロンプトへの著作物の入力は非享受利用に該るか

個人的には非享受利用となると考える。

  • 30条の4は情報を機械的に処理するだけでなく、人間が処理を行う場合も想定している
  • 判例のマンガ塾の件は利用する際に人間がマンガの絵を積極的に認知し、その特徴を利用しようとする行為だが、プロンプトへの入力は単にコピペしてシステムに読ませるだけ。特徴を利用しているのは機械
  • 機械は創作的特徴を享受しているが、30条の4は人間による享受を想定 機械に感情はなく、創作的美的特徴を感得しない
    プロンプトへの入力のために改変が生じる場合は?
  • 改変後の著作物を人間が積極的に利用するかで判断されるべきでは。
  • 前提として入力箇所を抜き出すだけあれば、翻案とはいわない。入力に適する形に積極的に成形し創作的特徴部分が変化するのであれば翻案 。
  • 翻案となる場合、翻案結果を人間が積極的に利用するのであれば、30条の4は不適用。プロンプトに入力するためだけであれば、条文があらゆる方法による利用も許諾している以上、30条の4によって違法性が無くなる。

オーバーライド問題

個人的にはこれが問題になる理由が不明。単に有効な合意の成立とみることができるだけの提示、了承のプロセスがあったかどうかだけで考えるべきでは。

  • 「このデータは学習に使用しないでくれ」という条件に真に合意して提供されたものを、著作権法が許しているからといって、勝手に学習に使用できるというのは、法の立ち入るところとして行き過ぎ(というかそう言う場合は営業秘密とか限定提供データになるから、議論の実益がほとんどないのでは)
  • Web等で単に宣言的に「学習禁止」と書いているだけであれば、そもそも合意無し
  • 規約のどこかにこっそり書いてある問題が微妙 個別事案毎に合意の有効性を判断すべき それだと事案・事例であって、議論の対象となるべき一般的論点ではない

著作権に関する文化庁の見解

https://www.bunka.go.jp/seisaku/chosakuken/aiandcopyright.html一行政庁の見解ではある(「ほんまかいな」といいたくなる点もある)。しかし実務においてはハードローと実質同一の法源性があると考えておく方が良いのでは。場合によっては法制審を経てハードロー化される可能性もあるのでは。

依拠性の判断基準

非享受利用の認定基準

文化庁の考え方の是非

よいAIの名称

  • 信頼できるAI
  • 責任あるAI
  • 倫理的AI

商標権・意匠権侵害の可能性

学習段階では今の所侵害となるケースが想定出来ない
利用段階では生成AI固有の問題ではなく、単に登録商標を含む出力を商標的に使用するかどうかという商標法の一般論の問題

「爆弾の製造方法を出力すること」は問題なのか

生成AIの学習データに記載があるから出力されただけ。つまりネットで探せば見つかる情報である。結局は検索容易性の問題。

  • 個人的にはそんなんしゃーないやろと思う。
  • ただサービスが社会的に受け入れられるかというと、むずかしいのか。「インターネット検索では爆弾の製造方法を発見できない子供が、生成AIなら情報を引き出せた」これを許容するのか?
  • アフリカで広がったデマである「処女とセックスをすればエイズが治る」→大量にネットに存在→学習→生成AIが出力→真に受けるユーザー発生→未成年者の暴行発生 違法では無くても責任のとりようのない大問題 サービスとしては不成立
  • 法律問題でない
  • 個人的に気になるのは、ネット上の情報にはない形で「爆弾の製造方法」を作り出した場合
  • AIが発明をすることがあるのだから、「爆弾の製造方法」を編み出すこともあり得るのでは。

– 既存の有害情報を再現するのとは、次元の違う問題

生成AIの出力が著作物として認められない

IBMの本[^ibm]に設例として記載

  • 論点になる理由が不明
  • 生成AIの出力なんだから当たり前でしょ

著作権を侵害して学習されたモデルの使用可否

ハルシネーション

  • 結局何が問題なのか? 技術屋からするとニューラルネットで学習させたらハルシネーションが起こるのは当たり前
    • 「AIの出力だから正しい」と信じてしまう人の心裡

間違う生成AI

  • 前項に同じ問題 2ちゃんねるとか質問サイトの中身を学習した出力なんだから、正しい内容である保証などどこにもないのがあたり前
    • でも9割方は妥当な回答をするから「AIの出力だから正しい」とつい信じてしまう
  • 判断系AIとは問題の質が異なる 判断系AIは正解率がもともと性能として仕様化され、利用者もそれを想定することが多い

個人情報が含まれているモデルの利用

  • IBMの本[^ibm]に個人情報が含まれているモデルは利用すべきでは無いとあるが、生成AIでは不可能
  • 「学習時に個人情報にフォーカスした学習方法を行っていない」「RLHFで個人情報を積極的には出力しない状態になっている」という条件が妥当では。

AIの学習用データとして提供してしまった場合

  • あるある論点のようだが、本当に発生するのか?
  • 「学習用データとして使用」と約束されているのであれば、企業内規律の問題は別として、本当にリスクはあるのだろうか 基盤モデル提供者がプロンプトからのデータを「繰り返し学習」する事などあるのだろうか?
  • プロンプトに入力したから絶対営業秘密の保護を受けられなくなるわけではないのでは 生成AIプロバイダはプロンプト内容について機密を約束しているのでは
  • 顧客側の機密データである場合、NDA条項に反するのかという視点であればかなりあり得る。一般的なNDAであれば契約違反になる。

環境負荷

  • 「AIのモデルの学習のために必要な電力のために二酸化炭素の排出が増える」とのこと
    でもモデルを1個作るのに「アメリカ・ヨーロッパを飛行機で1往復するだけの」or「自動車5台がライフサイクル中で排出するだけの」二酸化炭素排出って僕の感覚では「少ない」と思ったのだけれど違う?

知識蒸留からの保護

  • 保護の必要性を考えるほど現実的な話なのか?モデルを再現できるだけの入力出力とその再構成をどうやってやるのだろうか?
  • 基盤モデルではなく特定業界向けのファインチューニング版なら現実性は上がるか。応答結果を使ってファインチューニングしたりプロンプトチューニングをすることはまだ現実性がありそう。

番外

マークダウン実験

個人的にこれからやりたいこと

  • ai倫理教育ツールキット
  • pptスライドを公開
  • CCライセンス

脚注確認用ダミー(正式版公開時削除)

  • ダミー[^ibm]

– ダミー[^shozo_guideline]

[^ibm]: 日本IBM AI倫理チーム「AIリスク教本 攻めのディフェンスで危機回避&ビジネス加速」日経BP (2023/12/15)
[^shozo_guideline]: デジタルアーカイブ学会「肖像権ガイドライン~自主的な公開判断の指針~ (2023年4月補訂)」

読書記録・レビュー:DIAMONDハーバード・ビジネス・レビュー 2024年 3月号 特集「生成AI 戦略と実行」

生成AIの潜在力を最大限に引き出す法
→ちょっと月並み感がある内容。件名負けしている気がします。細かい事例は国内ではあまり見ないものが多いので興味を持てたけれどもそれだけ。

従業員が生成AIを活用するために企業は何をすべきか
→「人々がデジタルツールをどう使うかを、完全に予測あるいは制御することはできない」という切り出しは、AIシステムと人間の関係をよく捉えているのでよいワードだと思った。AIが何をできるかを職務単位では無く職務を構成するタスク単一で見ていくという発想は「責任あるAI」(古川)と共通。筆者が提示するSTEPという導入プロセスは具体的であり、有用性が高いと思う。これを見ていると、日本は労働生産性において更にアメリカにおいて行かれるのではという危惧を感じるぐらい。「AIだからこそ従業員に任せる」という判断は、リスクに対して保守的な日本企業では困難そうなアプローチ。

AIプロジェクトを軌道に乗せる5つのステップ
→性能と倫理のトレードオフということをはっきり言っているところに好感がもてる。「Aiは継続的改善で初めてものになる」は月並みでも重要。「ユーザーがAiを信用できる場合に導入が成功する」は「あー、そやね」という感じ。

生成AIの戦略的な活用で競争力を高める
→話しとしてはわかるけれども、これはDX一般の話でAIにフォーカスしていないのではという印象が多少。ただ4つの視点を5つの質問で確認するという視点は明快で、活用しやすいと思う。

自社の戦略に生成AIを組み込む方法
→AIの導入水準を3段階で分けるという発想。これを読んでから先程の「AIプロジェクトを軌道に乗せる5つのステップ」を読むのが良いのではないかと思う。これはレベル3なので。レベル3に進むためのチェックリストは当たり前の話ではあるけれども、再認識させてくれるものとしてよい指摘。

シチズンデベロッパーを企業でどう活かすか
→「シチズンデベロッパー」という用語を初めて知った。「以前会社にいたVBAに詳しい人が作ったマクロ付きのエクセルシートで回っている業務」という話が日本ではありがちだと思うけれども、そのAI進化形の話。この文書での「シチズン」は「IT専門家では無い自社従業員」を想定していて、日本の「ノーコード・ローコード」ブームに近いところでの議論。興味深いけれども、従業員全体のリタレシーが高い企業を想定している感あり。

人間の欲望と道具が共進化する時代は終わりを迎えつつある
→前半は日本を代表するデザイナーである原氏によるAI評。好意的且つ客観的に生成AIを受け入れているように読める。後半は自分には理解がむずかしかった。芸術家さんの感性から生まれるものは自分の解釈が追いつかないことが多々あり、これも同様。

読書記録・レビュー:責任あるAIとルール 古川 直裕 / 吉永 京子

AIの倫理に関するリスクの入門として非常にとっつきやすいと感じた。筆者の一人が同業者なので、法律関係の記述が多いかと思っていたらそうではなく、AIが惹起する倫理問題が幅広く記述されており、逆に法律問題の記述はあまりない。そのため弁護士が読むとしても、新鮮な気分で読み進めることができると思う。

AIガバナンスの体系

AIガバナンスの体系

ver.20240823-1
AIガバナンスを考える上での自分的メモ
本を読みながらの殴り書き状態
勉強しながら追記していきます

倫理

 aiのための特別な倫理があるのではなく、倫理をaiという側面で切り取ったもの

対応策

 いわゆる経営マネジメントシステム

課題

  • 差別
  • ハルシネーション
  • 詐欺への悪用
  • 心理操作大衆操作
  • 説明可能性
  • 責任の所在
  • 再現aiの再現される側の尊厳

国内

ソフトロー

  1. カメラガイドライン

ハードロー

  1. 著作権法
  2. 文化庁考え方
     学習データの著作権が及ぶ範囲
  3. 個人情報保護法
     個人情報保護委員会の注意喚起
  4. プライバシー

海外

ソフトロー

ハードロー

EU包括法
gdpr
dsa
emfa

個別論点

北山昇弁護士の見解:最終的な利用形態が個人情報でなけねは保佐目的規制を受けない?

そんなことはない

ダウンロード中に追加される場合は?

 再ダウンロードが必要?
  それは

モデルは個人情報ではない

 当然そうか?
 テキストファイルもそもそも数字の羅列
 同じデータを徹底的に学習させてパターンを獲得する場合は個人情報

目的の範囲内

 手段を含まない

外部送信規律との関係は

収集時に不可避的に含まれてしまう要配慮個人情報

 しゃーないで済むのか?
 こじょういはしゃーない的
 プライバシー侵害を固定化する
  デジタルタトゥ
 再現不可AIの学習目的に限定
 過失ならいいのか
 未必の故意はある

推知情報の該当性

 肯定説を取るべきでは
 だって事実と関係ない
 ただし取得ではない

やりたいこと

ai倫理教育ツールキット
pptスライドを公開
CCライセンスで
利用方法を

読書記録・レビュー:責任あるAI: 「AI倫理」戦略ハンドブック 保科 学世

AIのリスクを回避するためのマネジメントシステムの構築策の提案が書かれています。AIに関するマネジメントの体系化確立されているとは言えない現状で、マネジメントシステムの構成要素を列記できているところには価値があると思います。ただこの手の重厚長大なマネジメントシステムは、大企業のみ実施可能で、また、実際に実施する実益があり、中小企業の場合には、実施がそもそもむずかしいか、実施したところで本当にリスク回避に役立つのかという疑問があります。アクセンチュアの名前を冠した本で、文中にもアクセンチュアにおける実践内容が記載さているので、アクセンチュアにコンサル費用を払えるような規模の企業を対象としているという印象を受けました。
個人的な提言としては、中小企業の場合には、「AI倫理を実践するAIマネジメントシステム」を新たに構築するという考え方では無く、既存の社内の各種の枠組みにAIの要素を含めていくのはどうでしょう。例えば、多くの企業では何らかの形で品質マネジメントを行っているでしょうから、AI関連製品である場合には、AI用のフレームワークを発動させて、チェックをする形です。AIツールの社内導入であれば、購買プロセスの中に組み込むといった発想です。全社的なAIガバナンスを支援できる専門家というのはなかなか見つからないと思いますが、プロダクト単位でのAI適用の是非であれば、外部からの助言も得やすいでしょう。
個人情報保護関連では、プライバシーマークを取得している場合には、AI活用はJIS15001の規定体系の中に当てはまってきますので、仕組み作りはあえて不要では無いかと思います。
一方、この書籍でも述べられているところですが、教育はやはり重要で、企業の構成員がAIのリスクを認識し、都度アラートを鳴らせられる状況になっていることで、初めて各種のシステムが機能します。「誰が教育してくれるんだ」という話になってしまいますが、こういった手探りの話については、それこそ社内勉強会といったところからはじめるということでも良いと思います。開催のプロセスでリタレシーが上がるということも期待できますので。
関西の企業であれば、どうしても講師が見つからないという場合には、当職までご連絡くださいませ。