- 2025/12/16 掲載
マイクロソフトAI部門CEO「危険なAI」からの撤退方針を明言
人類が制御不能となるうるような「超知能」を開発しない姿勢を強調
この方針表明は、マイクロソフトがOpenAIとの関係再編などを経て、独自のAI開発戦略を進める中で出されたものである。スレイマン氏は、AI研究が進む中で潜在的な「破局的リスク」や「存在論的リスク」が現実の懸念事項となっているとの認識を示し、リスクが人類にとって受け入れ難い段階に達した場合、Microsoftとしては開発を続けないという原則を強調している。彼はこの姿勢を「業界では斬新な立場」と述べ、企業としての責任を明確にした。
スレイマンCEOはこの方針について、人間に奉仕する方向でAIを設計する必要性を繰り返し強調している。彼の発言やブログ投稿からは、AIが高度になり「見かけ上意識を持つように見える」段階に達することへの懸念も表明されている。この種のAIは、ユーザーとの関係性において現実認識を揺るがすリスクを内包し、「AI精神病」と呼ばれる心理的影響や、ユーザーがAIに過度に依存する事態を引き起こす可能性があるとの指摘がなされている。
さらに、スレイマン氏はAIが単に人間の能力を超える存在として機能するだけでなく、「意識があるかのように見える技術」は社会的・倫理的な混乱を招く可能性があるとして、AIに権利や市民的地位を与える考え方を「誤った方向性」とする立場を明らかにしている。この見解は、AIが見せる高度な振る舞いを人間的な属性と混同しないよう注意を促すものであり、AI倫理の議論における重要な視点を提供している。
スレイマン氏は、単にリスク回避を唱えるだけではなく、「人間利益に沿ったスーパーインテリジェンス(humanist superintelligence)」という概念の追求を公言している。このアプローチは、AIが我々の生活や社会インフラ、医療・教育・エネルギーなどの分野で有益な役割を果たす可能性に焦点を当てつつ、その実装における制御性と安全性を必須条件としている。開発がもたらす潜在的な利益と危険性のバランスを取ることが、同氏の指導するAI戦略の核心である。
この方針は、マイクロソフトがAI戦略の独自性を打ち出す一環とみられる。OpenAIとの提携見直し後、同社は汎用人工知能(AGI)や超知能の独自開発を進める自由度を獲得しているが、同時にその開発が制御困難になる可能性への慎重な姿勢を強調している。スレイマン氏は、MicrosoftがAI研究において自立する必要性を認識しつつも、その進展を無条件に追求するのではなく、「ガードレール(安全基準)」を設けることの重要性を語っている。
スレイマン氏の見解は、AI研究コミュニティ内部や規制当局との対話にも影響を及ぼしつつある。世界的にAIの安全性や社会的影響に関する懸念が高まる中で、**企業が独自の安全基準と撤退基準を明示する動きは、AIガバナンスの新たな潮流となる可能性がある。**すなわち、単に技術的な優位性を競うのではなく、倫理的枠組みと安全性を担保した開発を企業戦略の中心に据える試みとして評価できる。
今後、マイクロソフトが具体的にどのような基準でAI開発中止の判断を下すのか、それが業界標準や国際的なAI規制の枠組みにどのような影響を与えるかが注目される。
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR