DeveloperWeek 2025は、AI愛好家にとって夢のようなアトラクションであり、小さなスタートアップから業界の著名企業まで、AI駆動の革新が溢れる盛りだくさんのイベントでした。ダンスするロボット犬、サイバートラックの数々、そして人の手を握ることに熱中するあまり、一部の通行人を驚かせるほど速く駆け寄ったロボットも登場しました。参加者は、音声クローンのデモ、さまざまな専門家との円卓会議、情熱的なDJ、そしてぽんと活用されないままの小さなインフレータブルスライドを体験することができました。どのスパイも、周囲で堂々と語られる「エージェント」の数に驚かされることでしょう。
AIが未来であることは間違いありません。しかし、どんな新しい関係にもあるように、幸せな将来へ向かってナビゲートしなければならない多くの課題が待ち受けています。
信頼関係の問題
多くの人々は、究極のAIソリューションを独自の判断でできる独立型のエージェントであると想像していますが、今日の現実は幅広い独立を呈しています。DeveloperWeekで展示されたほとんどすべてのAIツールはまだかなりの人間の入力を必要としており、わずかなものだけが自立性を高める方向に進んでいます。

いくつかの人気のあるスピーカーセッションに参加した後で、真の自律性を達成する上での中心的な課題は信頼であることが明らかになりました。 つまり、AIベースの製品が信頼性があり正確な出力を提供するように設計されるにはどうすれば良いのかということです。今日の成功している多くのAIツール(GitHub CopilotやCursor.aiなど)は、トレーニングを受けた開発者によって使用されるB2B製品であり、検証には人間による監視が本質的に頼られています。適切な使用のためのルールと手順を体系的に作成し、遵守することによって、制作環境に影響を与える可能性のある幻覚コードや他のエラーのリスクを軽減することができます。
一方でB2C製品は、顧客への使用ルールの強制手段が少なくなります。 AIツールは、テストのために提供されるプロンプトで期待通りに動作するかもしれませんが、顧客が意図せず作成してしまう可能性のあるプロンプトの数には限りがありません。幻覚やトレーニングデータバイアスを回避しようとする試みは表面的にはガードレールとして作用するように見えるかもしれませんが、それが保証されるわけではありません。
判断を下すAIが絶対に欠けない:これは、いくつかのユースケースでは非常に魅力的であり、他では非常に誤解を招く恐れがあります。ただし、信頼性の低いAI製品の狂おしい西部時代は永遠に続くわけではありません。 技術は指数的なスピードで進歩しており、人々はAIとのより効果的な関わり方を学んでいます。最も注目を集めたセッションの一つで、Neo4jのStephen Chinは、実際のデータを組み込むことでLLMの創造性を高め、より論理的で関連性の高い出力を生成するのを助ける強力なツールとしてGraphRAGを取り上げました。AIの専門知識と機能を制限することは、より包括的な出力テストを可能にし、モデルの限界を認識する際の透明性を促進する簡単な方法でもあります。これらの機能を洗練し、バランスをとる作業は、まるで脳の左と右の半球を結びつけるかのように、すでに進行中です。
どれだけ話す?
結果を向上させるために、実データでAIプロンプトを補強すること–いわば、RAGsから成功への変化–は新しい概念ではなく、多くのアイデアがブースの周りで泡立っていました。AIはまだ技術革命の観点では新しいですが、より広い世界にはもはや新規性や斬新さはありません–2022年以来、それについて聞いてきました。AI主導の未来の輝かしい約束を示すために、あらゆる派手なデモが提示されてきましたが、ではその未来は今どこにあるのでしょうか?
Auth0の基調講演からのスライドは、シブ・ラムジによる説明で、AI製品の寿命を説明するのに特に適していました。製品をデモの準備まで整えるのは、それを出荷するのとは同じではなく、多くのAI製品がデモと出荷の間の境界にあることが、以下に示されています。
要するに、このことはAI技術の爆発的発展がいまだに差し迫っており、準備が整った一般向けのツールが定期的に増えていることを意味します。多くの企業がGartnerの「幻滅の谷」を越えて進めば進むほど、我々は懐疑論から実際の、具体的な進展への変化を目の当たりにしています。 これは、AIの可能性が、かつては遠い未来と思われていた方法で、ようやく完全に実現され始めていることを示しています。
透明性の欠如
AIの輝かしい魅力の一部は、自然言語の馴染みあるベールの下にコードや技術的な面倒な部分を抽象化する能力にあります。しかし、この抽象化こそがAIをブラックボックスに変え、修正、テスト、そして使用をより複雑にしています。AIモデルを作成する人々であるエンジニアや研究者が基盤となるアーキテクチャを開発する一方で、AIを取り入れた製品をデザインするプロダクトマネージャーやUXデザイナー、ビジネスストラテジストとの間には、ますます広がるギャップがあります。あるセッションで、プレゼンターは30分間のセッションのテーマであるエージェントに関連して、 自分自身で AI エージェントを構築したことがあるかどうか観客に尋ねましたが、 手を挙げる人は一人もいませんでした。
この観客が特に遠慮がちなだけだったかもしれませんが、 それでもこれは AI 分野に依然として存在する不透明さを物語る明らかな指標です。誰もが AI を求めていますが、その理論から実際の開発、そして適切な使用までを本当に理解している人はどれくらいいるでしょうか?コード不要のソリューションが一般的になるにつれて、 この実務的な知識のギャップは必然的に広がり、 アクセシビリティが向上する一方で、 自然言語抽象化の広く利益をもたらすもう1つの側面が生じ、 開発や使用において見過ごしの余地が残ることになります。
AI製品の不透明性が増すことによって生じるもう一つの結果は、同時に可視性の向上が求められることです。 イベントでは、多くの企業が可視化によって明確さを向上させることを目的とした製品を展示していましたが、一方で、この可視性の必要性が差し迫った問題であると認識している企業もありました。 一部のケースでは、企業はAIのブラックボックスという特性を利用して、陰の部分を隠す、例えば製品のセキュリティ上の欠陥などを隠すために利用しました。
セキュリティの不安
業界全体における広範なセキュリティ上の懸念が重なっているのにも関わらず、多くのAI製品の開発においてセキュリティはしばしば衝撃的なほど後回しにされます。RAGに関連するソリューションを扱う企業は、細粒度の認可(FGA) および 役割ベースのアクセス制御(RBAC)を主要な焦点として強調する一方で、AIエージェントを使ってAPIを利用する企業は権限とスコープに関する問題が最も差し迫ったセキュリティ課題であると指摘しました。これらの課題に対処するために、企業はさまざまなアプローチを取りました。
1.FGAまたはRBACの内部実装
このアプローチは、イベント中のアドホックインタビューで最も一般的に言及されたものであり、企業がセキュリティフレームワークを自社で扱うことを含んでいます。これは機密データを確実に保護する有効な方法となる場合がありますが、「なぜ車輪の再発明を続けるのか?」という重要な疑問を投げかけます。AIツールがしばしば同じ基礎モデルに基づいて構築されるのと同様に、多くの業界が最終的には似た方法で取り組むであろう同じセキュリティの課題を、すべての企業が個別に対処するのは非効率的なように思われます。標準化された解決策があれば、時間とリソースを節約し、全体的なセキュリティを向上させることができます。
2.セキュリティを顧客に移譲
一部の企業は当初、顧客に責任を移譲することでセキュリティの負担を軽減しています。これは製品開発の初期段階で魅力的な戦略のように見えるかもしれませんが、これにより、市場投入までのスケジュールが早まります。しかし、このアプローチは長期的にはスケールしない可能性があります。AI製品が成熟するに連れて、顧客は製品に堅牢な組み込みセキュリティ機能を求め、自分でその負担を負うことは期待していません。
3.AIの機能制限のためのガードレールの実施
もう一つの企業が取っているアプローチは、AIが何をできて何をできないかに制約を設けることに関与しています。AIをリードオンリーアクセスに制限するか、APIとのインタラクションを厳しく制限しています。ある企業はそのアプローチをさらに推し進め、AIのAPI呼び出し機能を完全に無効化しました。代わりに、AIはAPI呼び出しが行われるべき場所にプレースホルダーを残し、人間がそのギャップを埋める必要がありました。この「人間の関与する」方法は、AIが強力である一方で、人間の監視が不可欠な領域がまだあることを認めた上で、安全性に関する慎重なアプローチを反映しています。これはまた、AIの自律性についての絶え間ない議論、つまり伝統的に人間が行ってきたタスクをAIにどの程度信頼して任せるべきなのかを強調しています。(また、AI開発者はデベロッパー会議の正当な参加者と見なされるべきでしょうか?)
4.セキュリティを考慮せずに進行する
最後に、最も注意を要するアプローチ—それでもなお驚くほど一般的である—は、適切なセキュリティ対策なしで進行することを含みます。AIが生産環境に統合され続ける中で、セキュリティを軽視することはさらに大きなリスクとなります。 特に、AIの能力を活用する悪意あるアクターの増加とともに危険が増しています。セキュリティは、最初から組み込まれている時に最も効果的であり、後からの考えで付け足されたり、後になって脆弱性を補うための絆創膏として追加されるべきではありません。
わくわくする未来
AIにはいくつかの問題があり、私たちにも同様です。信頼性の問題、セキュリティの懸念、透明性の必要性など、私たちが今日直面している課題は、この初期技術と長期的で信頼性のあるパートナーシップを築く過程の一部にすぎません。DeveloperWeek 2025では、わずか数年の間に達成された重要な進展が強調されましたが、これらの課題に対応することの重要性も明らかにされました。 AI開発へのアプローチを洗練させる中で、責任を伴った革新とのバランスを取ることが重要になります。
特にセキュリティは、依然として最も緊急の関心事の一つです。 AIシステムがより能力を増し、ビジネスオペレーションに深く統合されるにつれて、安全な認証とアクセスコントロールを確保することが、脆弱性を防ぐために非常に重要になります。 Auth0のような製品は、より強力なIDと認証フレームワークで生成的AIアプリケーションのセキュリティを確保するための洞察を提供することで、この課題にすでに取り組んでいます。 AIのセキュリティは最初から組み込むことが最も効果的であり、開発者と企業の両方がAIの革新を堅牢な安全対策とバランスさせることができるようにします。
強力なAIセキュリティ戦略をAuth0と統合する方法を探求しましょう:Auth for GenAI。
AIの未来には多大な可能性があり、継続的な共同作業と思慮深い問題解決により、ポジティブで変革的な影響を与える可能性が手の届くところにあります。
AIリソース
About the author

Mira Sharma
Product Manager
Mira is a Product Manager on Auth0’s Enterprise Federations team. She is passionate about building connections, whether they involve OIDC tokens, puzzling out the shape of new product features, or frustrating New York Times games. When she’s not working, she’s probably writing intergalactic stories, out on a run, or in a pool somewhere.
View profile