AI・機械学習
2026年03月11日

「人×AI」の協調でテスト設計を自動化──ベリサーブがAI駆動開発時代の品質保証プロダクト「TESTRA」PoC版を発表

「人×AI」の協調でテスト設計を自動化──ベリサーブがAI駆動開発時代の品質保証プロダクト「TESTRA」PoC版を発表

「人×AI」の協調でテスト設計を自動化──ベリサーブがAI駆動開発時代の品質保証プロダクト「TESTRA」PoC版を発表(写真はイメージ)

ソフトウェアの品質向上支援サービスを手がける株式会社ベリサーブは、2026年4月初旬より、生成AIを活用したテスト設計エージェント「TESTRA(テストラ)」のPoC(概念実証)版を提供すると発表しました。TESTRAは、自然言語で記述された仕様書からテストモデルやテストケースを自動生成するSaaS型プロダクトです。ソフトウェア開発・テストに携わる幅広いユーザーを対象として提供される予定で、今回の発表はその第一歩となります。

生成AIがもたらすテスト設計の変化と、残された課題

生成AIの急速な普及は、ソフトウェアテストの現場にも大きな変化をもたらしています。従来はテスト分析から設計まで人間が担うことが当然とされていましたが、今日では生成AIがテスト分析からテストケースの作成まで自動的に処理できる環境が整いつつあります。この変化は開発エンジニアの作業効率を高める可能性を秘めている一方で、新たな課題も浮き彫りにしてきました。

生成AIの出力には誤りが混入する可能性があること、出力に至るまでのプロセスが不透明であること、そして入力される文脈によって出力内容や品質が大きく変動することが、品質保証の観点から問題として指摘されてきました。テスト設計においては、こうした不確実性が最終的なソフトウェアの信頼性に直結するだけに、AIへの過度な依存はリスクを伴います。生産性向上の期待と品質への責任のバランスをどのように取るか、という問いが業界全体に突きつけられている状況といえます。

「HITL」という設計思想が示す新しい協調のかたち

TESTRAが注目される点は、この課題に対してAI単独での解決を目指すのではなく、「HITL(Human In The Loop)」という設計思想を前面に打ち出していることです。AIが生成した内容を人間が適切なタイミングでレビューし、必要に応じて修正を加えることで、テストケース生成の経緯を可視化します。これにより、テストケースが生成された根拠やロジックが第三者に説明可能な状態を維持でき、監査対応や顧客への説明責任に応えられる仕組みが整います。

また、同社が長年にわたって蓄積してきたテスト観点のデータベースと、体系的なテストモデル「MBT(Model-Based Testing)」を生成AIと組み合わせることで、出力の精度向上も図られています。手作業によるテスト設計と比較して、工数を約60%削減できるとされており、開発現場の効率化に寄与できると見られます。

この設計思想は、国内外の政策的な方向性とも軌を一にしています。国内では内閣府が「人間中心のAI社会原則」を策定し、AIの社会実装において人間の尊厳を基本理念として掲げてきました。総務省・経済産業省が2026年3月末に更新を予定している「AI事業者ガイドライン」では、人間の判断を必須とする仕組みの構築が明記される見通しとなっています。欧州でも2024年に成立した「EU AI法」において、高リスクAIシステムへの人間による監督が求められており、最終的な制御権を人間が保持するという原則が国際的に広がりつつある状況です。

「説明できるAI活用」が選定軸になる時代

ソフトウェアテストは品質保証における重要な工程として位置づけられており、そこでのAI活用には特に慎重な設計が求められます。生成AIの「ブラックボックス性」が課題として広く認識されるなかで、プロセスの可視化と人間の関与を組み合わせた設計は、法人向けITツールの導入判断においても評価される軸になりつつあると考えられます。

AI活用ツールの選定を検討する立場からすると、TESTRAのような「人間のレビューを前提とした自動化」という設計は、ひとつの参考軸になりそうです。全自動で結果を出力するAIツールは魅力的に映りますが、結果の根拠を説明できることや、監査・コンプライアンス対応の観点から第三者への説明責任を果たせることは、品質保証や規制対応が求められる業種・業態では重要な評価ポイントとなります。テスト設計は専門知識を要する領域であり、AIとの協調をどこまで進めるか、どの工程に人間の判断を残すかという設計は、ツールの機能だけでなく運用フロー全体と密接に関わります。

生成AIに関するITトレンド記事はこちら!

まとめ

ベリサーブが提供するTESTRAのPoC版は、生成AIと人間の協調によりソフトウェアテストの品質保証を高度化しようとする取り組みです。AI活用の課題として指摘されてきた「説明責任の欠如」に対して、HITLという設計アプローチで正面から向き合っている点は注目に値します。国内外でAI規制やガイドラインの整備が進むなかで、「どのようにAIを使うか」という設計思想そのものがプロダクトの差別化要因になる時代が到来していると受け取れます。今後、PoC版を経て本格展開に向けた動向がどのように進むか、引き続き注目されるところです。

top遷移画像

Copyright (C) 2026 IT Trend All Rights Reserved.