2024年5月にG7で人工知能(AI)の国際ルールづくりの合意が表明された
「AIは人類全体に影響を及ぼす革新的な技術であり、多くの国が共通の認識を持つことが重要だ」
それは、その通りであろう。
では、具体的に何をすればいいか。とくにAIを業務に用いる企業が何を考えるべきかが問題になろう。その一つのガイドが、「ISO/IEC 42001」である。
「Information technology — Artificial intelligence — Management system」
つまり、ITシステムとしてのAIのマネジメントシステムを規定した国際標準である。
2023年12月に初版がリリースされている。
それほど浩瀚な規格ではない。本文は16頁、附則が33頁ほどのA4サイズの小冊子だ。規格の要求を指し示す「shall」は121個ほどある(全適用ではない)
その名の通り情報システムとしてAIのマネジメントプロセスを定義し、運用し、改善せよ、という規定である。
ある意味、情報セキュリティに近い管理プロセスの規定である(ISO/IEC 27000やISO/IEC 27701を参照している)
AI ポリシー策定やPDCAサイクルのプラン、プロセス定義やアセスメント、監査など管理システムの常套手段が必要となるのも情報セキュリティとアナロジーが有効だ。
セキュリティをはじめとして、安全性、公平性、透明性、データ品質、品質などのAIの特性に関する保証が求められる。
ここでAIのリスクアセスメントが登場する。品質やセキュリティ、安全性などは見知った項目であり、情報システムとしてのリスク評価はいつか来た道であろう。
リスク源については同規格のAnnex Cに役立つ情報が記載されている。
さて、そのなかの公平性(Fairness)という項目なのだが、これはどのようにリスクを考えれないいのだろうか?
バイアスの無さとひとまず考えるとわかりやすい。データバイアス、分析者バイアス、アルゴリズムバイアスなど、なかなか奥が深いトピックスである。
公平性に関してリスクレベルが高く、対策が要求されるAIシステムはかなり存在するであろう。バイアス由来の問題に対してはKPIを持ち込むなど幾つかの処方箋がある。
それは、これからの大いなる(マーケティング等のAI利用で)課題となるのはほぼ確実である。
なんといっても分析者の認知バイアスがAIに忍び込むことへの対処というのは、ことのほか難儀な問題であると指摘しておこう。