Akira
Akira

AIの倫理審査は、イノベーションを妨げるものではなく、それを後押しするものであるべき

本記事はFastcompanyにより翻訳されたものです。

企業がAI競争に参加し、未来を形作る技術の可能性を利用しようと急ぐ中、重大な問題が大きく立ちはだかっています:倫理はイノベーションについていけますか?

私は、あらゆる場所で創造性と生産性を変革するジェネレーティブAIの力に特に期待していますが、適切な監視がなければ、この潜在的で革命的なテクノロジーは、現実的な脅威と課題をもたらす可能性があることも認識しています。AIが各業界のイノベーションの要となるにつれ、企業にはAIがもたらす可能性のあるリスクを軽減する義務があることがますます明らかになっています。責任あるイノベーションに向けた旅は、イノベーションを推進する企業の内部から始めなければならず、ビジネス全体の多様なステークホルダーによる深く広範な協力が必要である。

非常に有望な展開のひとつは、AI倫理審査委員会が主導するAI倫理審査プロセスの採用が拡大していることです。多くの企業は、新製品や新技術が責任を持って開発され、潜在的な危害から保護できることを保証するために、こうした委員会を設置しています。適切に実施されれば、強固なAI倫理審査委員会とプロセスは、責任あるイノベーションへの包括的なアプローチを目指す企業にとって不可欠なツールとなります。しかし、特にAIを活用した製品や機能の開発を指導する上でのAI倫理審査会の有効性については、まだ課題が残されています。

多くの企業では、AI倫理審査プロセスを停滞した取締役会に集中させ、企業の責任あるイノベーションの意思決定を単一の団体に委ねています。このアプローチは、イノベーションのペースを止める障害を引き起こし、抽象的な大義のためだけに役立つ場当たり的なガードレールに依存しています。他のAI審査委員会は、製品や機能の開発において、何が立ち入り禁止なのかについて厳格なガイドラインや境界線を設定する厳格な規制機関として機能し、製品ライフサイクルのアイデア段階から発見を阻害し、創造性を抑圧します。

当初は、AI審査委員会が倫理審査プロセスに対する企業のアプローチの設計と実行を推進すべきである。しかし、これらの規範が確立されれば、AI倫理チームは、取締役会が設定した綱領の運用を支援することができます。アドビでは、共有された原則と思慮深いイノベーションへの戦術的アプローチで武装した多様なAI倫理審査プロセスが、イノベーションの強力な触媒になり得ることを確認しています。さらに、専門のAI倫理チームは、倫理基準に妥協することなく新たなフロンティアを探求するチームに力を与えることができます。

AI倫理委員会の役割:正確に導く

ジェネレーティブAIの台頭により、人間の創造性を代替したり低下させたりするのではなく、増幅させる絶大な機会が存在します。私たちは、AI審査委員会が門番ではなく、イノベーションの後見人として機能することで、この機会をさらに促進できると考えています。AI審査委員会の焦点は、企業がAI技術を使って何ができるか、何をすべきでないかではなく、社内のチームが最も倫理的な方法で大胆な夢を追求できるように、リスクを評価し軽減する最善の方法を見つけ出すことです。

リスクを評価するため、アドビはAI倫理チームが中心となり、有害な偏見や固定観念を永続させる可能性のある機能や製品を特定するための、新しいAI搭載機能に対するAI倫理影響評価を作成しました。ほとんどの場合、製品は大きな倫理的懸念を示さず、当社の承認基準を満たしています。評価の結果、より高い倫理的影響の可能性が示された場合は、製品のリスクを軽減するための質問や改善点の共有を行うことができるAI審査委員会へのプレゼンテーションを含む、さらなる技術的レビューが必要となります。最初から責任あるイノベーションを導くための強固な評価プロセスがすでに確立されているため、AI審査委員会へのプレゼンテーションは最小限にとどめ、最も困難な問題に対処するためにのみ行うべきである。

制約のあるアプローチではなく、リスクベースのアプローチを支持することで、イノベーションのための遊び場が生まれます。チームがAI倫理チームが潜在的なリスクの管理をサポートしてくれると確信すれば、信頼に基づく文化が構築され、シニアリーダーから製品開発者、マーケティング担当者に至るまで、ビジネス全体の利害関係者が倫理を創造的プロセスの重要な要素として捉えるようになります。これにより、取締役会は細かなレビューを見送り、イノベーションのペースを落とすことなく、最もリスクの高い技術の評価に集中することができます。

多様な成果には多様な視点が必要

AIシステムは、学習させたデータと同じくらい包括的であり、同じ原則がAI技術の開発を監督する個人の多様性にも当てはまります。AIレビューにおける多様性は、リスク評価と意思決定プロセスにおける幅広い視点を確保するために最も重要である。企業が規模を拡大し、新製品や新機能を導入するにつれ、AIレビュープロセスの調整が必要になります。それに合わせて、取締役会は定期的にメンバーを刷新し、ビジネスの進化するニーズに沿った新鮮な視点を取り入れるべきである。

例えば、AI倫理審査委員会や評価プロセスを形成する初期段階では、技術的な専門知識を優先させることが、製品の進歩に関する綿密な議論を行う上で極めて重要である。これは「あったらいいな」ではありません。倫理が製品開発に最初から組み込まれていることを確実にするためには、必ず必要なことなのです。製品が市場投入に向けて進化するにつれて、マーケティング、法務、人事など、社内のさまざまな部門から多様な視点を取り入れるためにレビュアーを拡大することが重要である。そうすることで、エンドユーザーと従業員双方への影響を包括的に考慮することができます。

民族、性別、性的指向の多様性だけでなく、思想や職業経験の多様性を体現するメンバーを組み入れることは、製品や機能の潜在的な問題を特定する上で極めて重要である。

イノベーションのための持続可能な慣行の確立

企業は、共有された組織原則に基づき、倫理的に重大な利害関係を持つ製品の審査・監督プロセスを構築することが不可欠である。AI倫理評価を活用することで、企業はAIの力を十分に活用することができ、同時に従業員と顧客の双方の信頼を培い、維持することができます。倫理的イノベーションのための指導原則を確立することは、取締役会が複雑な意思決定を行い、潜在的なリスクを評価する際に、強固で揺るぎない基盤を提供します。倫理が設計原則に組み込まれれば、責任あるイノベーションは企業のDNAの自然な一部となります。

私たちの審査プロセスは、2019年に確立した説明責任、透明性の原則にしっかりと根ざしています。これらの原則は、トレーニングやテストを含め、設計から配備まで、製品開発のあらゆる段階に根付いています。これらの原則を支持するために、私たちはAI審査委員会内の多様なリーダーや経歴、各レベルのエバンジェリスト、そして私たちのビジネス全体からの視点を頼りに、これらの価値を促進し、支持しています。私たちは、私たちの原則が戦術的で実行可能であり、イノベーションを成功させるのに十分な広さを持っていると信じています。また、製品発売後も、私たちは継続的に顧客からのフィードバックを収集し、私たちのAIモデルが顧客のニーズに沿ったアウトプットを提供していることを確認しています。

責任あるイノベーションの旅に出ることは、挑戦的ではあるが必須である。最も効率的なAI倫理審査評価でさえ、すべてのリスクを予見し、軽減することはできませんが、事業内および顧客との信頼関係を構築する上で重要な役割を果たします。不測のリスクが顕在化した場合、AIレビュー・プロセスと強力な原則が組織全体に統合されていれば、危害を減らすためにあらゆる手段を講じたことを利害関係者に保証することができます。

AIへの倫理的アプローチを追求する企業は、世界を変えることを目指す必要はありません。それよりも、具体的なインパクトを与え、手の届く範囲、すなわち製品、人材、目的に原則を組み込むことに重点を置くべきである。

以上、AIの倫理審査について紹介しました。ほかのAI製品に関心を持つ方に、AIをベースに人物写真をAI 似顔絵への変換を実現できるToongineerや、ぼやけた画像をくっきりさせるぼかし除去 サイトーーVanceAI画像鮮明化を試すのをおすすめします。

CC BY-NC-ND 4.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…

发布评论