立法、規制、蓄積: 企業がAI法から利益を得る方法

立法、規制、蓄積: 企業がAI法から利益を得る方法

立法、規制、蓄積: 企業がAI法から利益を得る方法

1000 648 David Hoppe

2022年11月にChatGPTが発表され、制御不能な生成型人工知能システムが引き起こす恐れがある損害について激しい議論が巻き起こりました。この会話型AIモデルが前例のない能力を示したことで、このような技術が誤情報の拡散や、オンライン不正行為の自動化、または違法行為の幇助に悪用されるのではないかという懸念が高まりました。しかし、米国がAIを規制すべきかどうか、そしてその方法を判断するために他国のケースや業界の著名人の声が注目される一方で、一部の専門家は、新たな専門的規制は現在の害を軽減するためにそれほど重要ではないと主張しています。

多くの人は、既存のコンテンツモデレーション、サイバーセキュリティ、プライバシー、知的財産法がAIを規制するために適用できることから、AIに特化した新たな政策は必要ないと考えています。テック企業は、急速な進歩の中で、政策を適切に保つ「動く標的(移り変わりの激しい状況下での政策の標的化」の問題や、政策立案者のためにデータやアルゴリズムに関する複雑な問題を明確にすること、デジタルツールが意図せずしても危害を引き起こすリスクを防ぐことなど、数多くの規制上の課題に直面しています。しかし、まだ発展途上の法律について統一見解を見いだすことは、一層難しい問題です。

一方、適切に策定された規制は、倫理的なAI開発者、特に巨大ハイテク企業との競争を目指す小規模なスタートアップに利益をもたらす可能性があります。慎重な監督と責任あるルールが、グーグルやメタのような企業が持つネットワーク力とデータの優位性を打ち破る可能性があります。特定の企業に絞られた補助金や調整された責任規則は、業界全体のベストプラクティスを促進する規制として機能し、リソースが制限されているスタートアップのイノベーションを支援することができます。結局のところ、適切な規制アプローチには、さまざまな要素をバランスよく考慮する必要があり、その重要性は高まるばかりです。

AI規制へのアプローチ

2016年以来、技術進歩の最前線にある地域では、AIシステムに関連するリスクを軽減する方法を評価してきました。2021年までに、1,600以上のAIガバナンス政策が立案されました。中国、英国、日本、欧州連合(EU)は包括的な規制枠組みを策定しました。2021年4月、欧州連合が人工知能法を提案したことで、監視のガイドラインを確立する機運が加速しました。この法律は、AIの提供者と利用者に対して、意図された目的と潜在的な危害に応じてさまざまな義務と制限を課すことを目的としています。欧州連合の法案が承認を待っている間に、中国もまた、リスクに応じた説明責任に焦点を当てた独自のAI規制を正式に制定しました。

米国は広範なAI政策の制定に遅れをとっています。現時点では、米国には人工知能システムに特化した規制法はひとつもありません。議員たちは、アルゴリズムによる差別などの問題に焦点を当てた狭い分野での法案をいくつか提出していますが、連邦レベルのAI監督機関の設立を提案する声も高まっています。包括的な監督がない代わりに、既存の公民権法、消費者保護規制、サイバーセキュリティ政策が依然としてAIシステムに適用され、悪用をある程度制限しています。世界の大国がAI規制を急ピッチで進める中、米国には倫理的進歩と国際競争力のバランスを取る明確な戦略的姿勢を採用するよう圧力が高まっています。この目標を達成するには、公共の利益の保護、およびイノベーションの確保が重要となるでしょう。

速度問題

AIの急速な進歩は、しばしば「ベロシティ(速度)」、または「レッドクイーン」と呼ばれる規制上の問題を深刻化させます。現行の規制が、その分野における技術進歩の速度に追いついていない場合や、政策が適切に設計されていない場合、政策がすぐに時代遅れになったり、イノベーションを阻害したりする懸念があります。この速度問題は、テック企業、特に不安定な環境での実験と競争を目指すスタートアップの間で、規制に対する懸念を高める要因となります。例えば、欧州連合の多くの企業は、画期的なAI法によって特定のユースケースを制限され、しばしば実用的でない透明性基準を求められることで、その手を縛られていると主張しています。一方で、AIの社会的影響や自由市場での競争を考慮すると、自主規制では不十分だと主張する関係者もいます。それでも、生成AIや関連技術の急速な革新の速度は、現在の政策立案者の監督能力を凌駕しています。「動く標的」に関する緊張感は、今後も続くでしょう。厳格な技術的要件よりもベストプラクティスを重視する、より柔軟なガバナンスの枠組みが、この緊張を緩和するのに役立つかもしれません。最終的には、倫理的な責務と持続的な進歩を両立させる、ダイナミックで思慮深い多利害関係者の協力が不可欠です。

 データセキュリティとプライバシー

AIによるデータ保護とセキュリティの監視は、Web3企業にとっても有益です。現在、包括的な国際的合意や条約によるデータ保護基準が存在しないため、各国の規制当局はさまざまな、しばしば相反するガバナンス基準を採用しています。これらの規制は、当然ながら、その国の特定の人々のニーズに対応し、国内ビジネスの利益を保護するためのものです。そのため、グローバルなAI企業にとって複雑なコンプライアンス上の課題が生じます。例えば、欧州連合の一般データ保護規則(GDPR)は比較的統一された規制の枠組みを提供しますが、米国のデータ規則は州によって断片的であり、医療、金融、小売などセクターごとに異なります。米国には、欧州連合とは異なり、トップダウン型の厳格なデータ処理要件は存在しません。しかし、だからといって企業に自由裁量権があるわけではありません。情報公開法のような多くの規制は、依然としてセキュリティ保護と透明性を要求しています。うまく策定された規制を導入すれば、プライバシーや倫理に関するベストプラクティスを提供しつつ、責任を持ったイノベーションを継続させることができます。AIはデータに大きく依存しているため、政策立案者は同意、匿名化、説明責任などの問題に関する基準を明確にすることが重要です。

規制の対象

新たな監督の枠組みがAIシステムのどの側面をカバーすべきかを明確にすることは、Web3企業にとってさらなる潜在的利点となります。「対象領域の課題」を解決するためには、AIに焦点を当てた政策がサービスの範囲を規制すべきかどうか、危害の可能性やリスクカテゴリーを定義すべきかどうか、損害賠償責任を課すべきかどうか、その他の懸念事項に取り組むべきかどうかについてのコンセンサスを形成する必要があります。これが曖昧になると、AI開発者にとって複雑な問題をもたらします。明確な責任モデルや容認不可能なシステム動作の定義の欠如により、厳格な法的責任のガイドラインがない状況下で、企業は柔軟に実験を行うことができます。これは、企業が無責任に行動できることを意味するものではありません。むしろ、規制基準や執行体制についてのさらなる明確化の余地があることを示唆しています。適切に設計された規制は、イノベーションを維持しながら、より良い規範と透明性への期待を確立するでしょう。しかし、その進展は、規制の適用範囲を明確に定義できるかどうかにかかっています。政策が管轄すべきは、データやアルゴリズムといったシステム内部なのか、それとも出力やユースケースだけなのか。プライバシー、偏見、安全性、その他の問題を優先すべきなのか、こうした問題を解決することは、公共の利益を守り、賢明で適切なAI法の制定を目指す政策立案者にとって非常に重要です。

結論

AI規制は急速なペースで進行しています。米国では、AIや他の形態の生成技術を規定する統一された体制が存在しないものの、状況は常に変化しており、議会はいつでもAIに特化した法律を制定することが可能です。それまでは、AIは既存の連邦法や州法のパッチワークによって規制されることになるでしょう。AIに関連するコンプライアンス要件を理解するためには、AIを含む新興技術を専門とする法律事務所に相談するのが最善です。また、AIに特化した法律事務所は、現行の法的枠組み、必要な法的文書の起草についても助言を提供できます。タイムリーな法的アドバイスにリソースを投資することは、AIビジネスにとって最良の投資です。この分野でのコスト削減は、長期的には法外な出費となるリスクがあります。


ガンマ法律事務所は、サンフランシスコを拠点とし、複雑な最先端のビジネス分野において、厳選されたクライアントをサポートするWeb3企業です。ダイナミックなビジネス環境で成功し、イノベーションの限界を押し広げ、米国内外でビジネス目標を達成するために必要な法務サービスを提供いたします。貴社のビジネスニーズについて、今すぐご相談ください

Author

David Hoppe

All stories by: David Hoppe