DevAIOpsというのは、DASA(DevOps Agile Skills Association)が提唱する概念になります。DevOpsの原則にAIとLLMと統合して、ソフトウェア開発と運用プロセスに対して、さらなる自動化・最適化を行う手法になります。

DASAによると、DevAIOpsには5つの原則があるとしています。

  1. 責任ある導入のためのリテラシーの構築と知識共有
  2. ガバナンス・コンプライアンスおよび倫理的利用の重要性
  3. 実験とイテレーションによる改善
  4. データの戦略的資産化
  5. 価値とコストの最適化

2025年はAIコーディングが流行り、エンジニア界隈は大きく揺れ動きがありました。AIコーディングエージェントは、それなりに良いコードを(最初は)書くのですが、突然崩壊したり、これまでのルールを逸脱するようなコーディングによって、私たちを悩ましていたと思います。個人的にはSpecKitを使ったり、コーディングガイドライン、小さなPRなどによって制御しようとしていますが、それでも時折悩まされることもまだあります。

とはいえ、AIコーディングエージェントがなかった時代に戻ることはもはや難しいでしょう。もし企業において、全面的に禁止したとしても、個人のスマホからAIを使うようなシャドーAIが蔓延る世界にしかならない気がします。

2026年について

そうした潮流は、2026年において、さらに別な領域に広がっていくと予想されます。

  • テスト
  • ドキュメント
  • CI
  • モニタリング

こういった技術に対して、さらにAIによる自動化が進んでいくものと思われます。

  1. エラーが発生したら、エラー内容が自動的にIssue作成
  2. Issueに基づいて、システムの修正コード生成&PR化
  3. PRをレビュー&不足しているテストの自動生成
  4. 現システムの内容に基づいてドキュメントの自動反映、翻訳

この辺りまでは自動でできそうな気がします。

DevOpsとの適合性

DevOpsは、開発と運用を以下の8領域に分割します。そして、各領域におけるAI/LLMの取り組みについてもまとめてみます(過不足あります)。

領域 AI
PLAN / 計画 要件の壁打ち、レビュー
CODE / コード SDD、AIコーディングエージェント、AIコードレビュー
BUILD / ビルド  
TEST / テスト テストコード生成、柔軟なテスト実行、エラー時の原因究明
RELEASE / リリース リリースノート生成、ドキュメント反映
DEPLOY / デプロイ  
OPERATE / 運用 異常検知
MONITOR / 監視 アラートノイズ軽減

現状では、領域ごとにグラデーションがありそうです。2026年では、不足している領域に対して、強力なサービスやソフトウェアが登場してくるのではないかと思います。

AIと人の役割分担について

AIがDevOpsに入り込んでくるのは、もはや止められないでしょう。それを押し留めようとするのは、2000年前半のクラウドへの対抗だったり、2010年代のスマホ・タブレットへの抵抗に似たものかもしれません。時代の流れが変わってしまっているので、抗う意味がありません。

となると、1個人としては「乗るしかない、このビッグウェーブに」となる他ありません。コーディング領域は2025年、すでにAIによって破壊的変更が行われてしまっているので、他の領域についても積極的に取り組んでいくのみです。

そして、そうやってAIを積極的に取り入れた結果、人は何を行えば良いのでしょうか。人ができるのは「コミュニケーション」と「責任」です。

コミュニケーション

AIはベストプラクティス(っぽい)ものを出してくれますが、それっぽいだけです。過去の膨大なコンテンツに基づいた、それっぽいものを出しているだけに過ぎません。いわば、車輪の再発明の壮大なバージョンです。

逆に、これまでにない何かを作る際には、多くの失敗が伴うでしょう。また、多くのLLMでは、人が良いと判断する方向に出力を行うので、間違った意見でも肯定的になりがちです。これはビジネス的、個人的に大きなミスにつながる可能性があります。そのため、AIをコンサル代わりにすると、基本的はレポーティングはよくとも、その後のビジネス価値などではミスリーディングする可能性があるので注意が必要です。

そうした意味で、人に求められているのは人と人のコミュニケーションを通じて、課題や解決策を見出す能力です。私たちはAIに対してサービス開発する訳ではないので(たぶん)、人や企業が良いと思ってもらう必要があります。そうした部分は割とエモーショナルな部分が関わるので、機械的に「良いはず!」とゴリ押ししても通じない部分があるでしょう。

責任

AIに責任は取れません。ChatGPTなど、LLMのサービスでは常に「回答は必ずしも正しいとは限りません」と書かれていますし、これは変わらないでしょう。つまり、AIが出力した何かに対しては、人が常に責任を持たなければならないということです。エンジニアが「AIが出力したので」と回答することはあってはならないのです。

ただし、AIの出力に対して人が見やすく、確認しやすくすることはできます。私が関わっているCodeRabbitはコードレビューに対して、サマリーやシーケンス図、変更ポイントをまとめて「人がレビューする際の認知負荷」を下げることができます。こうした人のための舗装作業をAIに行ってもらうことはできるでしょう。エラーが起きた際に、その要点をまとめたり、解決策を提案してくれるのも一つです。

人は責任を取りますが、責任を取りやすい形にするのもAIの役割になっていくと推測されます。

まとめ

個人的に2026年はDevAIOpsのトレンドが来ると考えています。2025年はコーディング領域がメインでしたが、他の領域においてもさらにAIが活用されていくと思われます。特にテスト・CI・運用・監視の領域はもっとプレイヤーが増えるのではないでしょうか。場合によっては、既存プレイヤーが一気に壊滅される未来があるかもしれません。

個人のエンジニアとしては、戦々恐々とする部分もあれば、逆にチャンスもあると思います。新しいツールを作って世界的に広めるチャンスにもつながるでしょう。翻訳なんぞAIでも十分ですし、OSS + SaaSのビジネスモデルは嫌というほどあります。2026年もビッグウェーブがまだまだ起きるのではないでしょうか。