Google Cloud 導入事例
株式会社セブン-イレブン・ジャパン 様
AI 発注における Vertex AI 導入
~ 「個店に寄り添う」需要予測を実現するための 基盤刷新 ~
2026/03/09
株式会社セブン-イレブン・ジャパン 様(以下「セブン-イレブン・ジャパン」、敬称略)では、AI を 活用した 発注業務の高度化に 継続的に取り組んできました。全国展開を通じて 一定の成果を上げる 一方で、店舗立地や客層、商品特性などによる需要の違い、販促の複雑化などにより、AI 発注に 求められる精度や柔軟性は 次の段階に進みつつありました。こうした課題に向き合う中で、同社が選択したのが、需要予測の中核となる基盤の刷新でした。
この取り組みについて、共同で システムを開発した 株式会社野村総合研究所(以下「NRI」)の担当者を交え、お話を伺いました。

- 写真左から、NRI の 小林 晃太郎・藤田 一樹・西牟田 大、セブン-イレブン・ジャパンの 義道 嘉人 氏・野澤 ななみ 氏・槇本 敏夫 氏。
導入の背景・経緯
全国展開の先に見えた、精度と利用の課題
セブン-イレブン・ジャパンでは、AI を 活用した 発注業務の高度化に 継続的に取り組んできました。AI 発注は 2023年3月から 全国展開され、現在は 非デイリー領域を中心に 多くの店舗で活用されています。約8割の店舗が 何らかの形で AI 発注を利用しており、AI の提案を活用している店舗ほど 売上が伸びる傾向も確認されています。
一方で、全国展開が進むにつれ、新たな課題も見え始めていました。商品数の増加や販促施策の複雑化、店舗立地や客層の違い、さらには異常気象など、需要を左右する要因は 年々増え続けています。その結果、AI 発注に求められる需要予測の精度や柔軟性は、これまで以上に高い水準が求められるようになっていました。
こうした課題意識について、セブン-イレブン・ジャパンで AI 発注の高度化を担当する 槇本 敏夫 氏は、次のように振り返ります。「店舗ごと・商品ごとの違いが大きいこと自体は、これまでも分かっていました。ただ、全国展開を進める中で、その違いを『AI の 予測精度』として どう吸収していくかが、想像以上に難しい テーマだと 改めて感じるようになりました」
この言葉のとおり、実際の運用現場では、AI の提案数を 店舗側が修正する ケースや、キャンペーン時の需要変動に 十分対応しきれない ケースも見られるようになっていました。精度に対する不満が、利用率の低下に つながる場面もあります。一度、AI 発注から離れた店舗が 再び使い始めるには、明確な改善実感や 新たな きっかけが 必要になります。
成果は出ている 一方で、信頼を十分に積み上げきれているとは言えない …… それが、全国展開を経て 浮かび上がってきた実情でした。

- セブン-イレブン・ジャパンの 槇本 敏夫 氏。
導入の概要・ポイント
GCE(VM)から Vertex AI へ …… フェーズの変化に応じた 基盤選択
こうした課題の根底にあったのが、需要予測モデルの「粒度」に関する問題でした。店舗や商品、販促内容、季節要因などを踏まえ、より細やかな需要予測を行おうとすると、それに応じた数の モデルを用意する必要があります。しかし、従来の AI 発注では、GCE (Google Compute Engine)上の VM を用いて モデルの 学習・推論を行っており、リソースや運用面の制約から、モデル数を大幅に増やすことが難しい状況にありました。
プロジェクトを技術面から支援した NRI の 小林 晃太郎 は、この点について振り返ります。「需要予測の精度を高めようとすると、どうしても モデルの数を増やす必要があります。ただ、VM ベースの構成では、その試行錯誤を 十分な スピードと規模で回すことが難しくなっていました」

- 株式会社野村総合研究所(NRI)の 小林 晃太郎。
人の判断に近づくためには、より多くの仮説を並行して検証し、状況に応じて モデルを使い分けていくことが求められます。そのためには、スケーラブルで柔軟性の高い基盤が欠かせませんでした。
そこで 今回、AI 発注の根幹となる「需要予測モデルの構築・推論」を行う基盤について、設計の見直しを行いました。GCE(VM)から、Google Cloud の マネージド ML 基盤である Vertex AI Pipelines へと 更改することで、処理の考え方そのものを 次の段階へと進めています。Vertex AI Pipelines を 活用することで、並列分散処理が可能となり、必要な タイミングで 必要な分だけ リソースを確保できる構成を実現しました。
Vertex AI Pipelines の 採用について、NRI の 藤田 一樹 は 技術面から こう整理します。「Vertex AI Pipelines を 使うことで、モデルの学習や検証を 並列に回せるようになりました。コストや処理時間を抑えながら モデル数を増やせる点は、今回の取り組みの 大きな ポイントです」
これにより、トータルコストや処理時間を抑えたまま、需要予測モデルの本数を 大幅に増やすことが可能になりました。また、VM ベースの運用から コンテナベースの マネージドサービスへ移行したことで、基盤運用に関わる負荷も軽減されています。

- 株式会社野村総合研究所(NRI)の 藤田 一樹。
導入の効果、今後の展望
AI と 人が「一緒に考える」発注へ
今回の Vertex AI 導入について、プロジェクトマネージャである NRI の 西牟田 大 は、次のように述べます。「今回の取り組みは、AI 発注を 完成させることが 目的ではありません。変化する環境に合わせて、精度を高め続けていくための土台を整えることに 意味があると考えています」

- 株式会社野村総合研究所(NRI)の 西牟田 大。
今回の取り組みの現在地について、セブン-イレブン・ジャパンの 野澤 ななみ 氏は、現場の実感を こう語ります。「AI 発注は、完成形が決まっているものではないと思っています。今回の基盤整備によって、現場の声を反映しながら、少しずつ精度を高めていける スタートラインに立てたと感じています」

- セブン-イレブン・ジャパンの 野澤 ななみ 氏。
需要予測モデルの数を増やし、改善サイクルを速めていくことで、店舗ごとの特性に より寄り添った提案が可能になります。それは、AI が 人の判断と置き換わる存在になるということではありません。発注担当者の判断を下支えし、共に考えながら、より良い選択肢を提示していく存在へと近づいていくことを意味しています。
加盟店にとって重要なのは、発注業務そのものに追われることではなく、売り場づくりや販売といった 本来 注力すべき業務に集中できる環境を整えることです。AI 発注は、そのための仕組みとして、現場を静かに支えていく役割を担います。
その上で 今後の展望について、義道 嘉人 氏 は 次のように話します。「今回の Vertex AI 導入で、ようやく『試せる余地』が 広がったと感じています。これから先、短鮮度の商品や サプライチェーン全体まで 視野に入れながら、AI 発注を どう進化させていくのかを、現場と 一緒に考えていきたいですね」
今後は、今回 整備した基盤を起点に、短鮮度領域への展開や サプライチェーン全体の最適化にも 挑戦していくことになります。正解が 一つではない 発注業務において、AI と 人が 対立するのではなく、試行錯誤を重ねながら 共に考え続けていく。そのための余地が、Vertex AI の導入によって 広がりました。

- セブン-イレブン・ジャパンの 義道 嘉人 氏。
企業紹介
株式会社セブン-イレブン・ジャパン
国内に 21,883店舗(2026年1月末現在)を展開する セブン-イレブンの、フランチャイズ本部。品質の良い オリジナルフレッシュフードや、プライベートブランド「セブンプレミアム」等、幅広い商品・サービスを提供し、加盟店オーナー様への店舗経営サポートとともに、お客様の豊かな暮らしの実現を目指しています。
関連する Google Cloud の ソリューションや プロダクト
Vertex AI
Vertex AI は、生成 AI と ML モデル、AI アプリケーションの構築、デプロイ、スケーリングのための 統合された オープン プラットフォームです。Model Garden に アクセスして、Google の 基盤モデル(Gemini など)や パートナー モデル、オープンモデルなど、200 以上の モデルの 厳選された カタログと、基盤となる TPU / GPU インフラストラクチャを 利用できます。Vertex AI は、最先端の 生成 AI ワークフローと MLOps の AI 推論ワークフローを サポートしています。エンドツーエンドの MLOps ツールと、ガバナンス、セキュリティ、コンプライアンスのための エンタープライズ グレードの 制御機能を提供します。
また、Vertex AI Pipelines では、ML パイプラインを使用して ML ワークフローをオーケストレートすることにより、サーバーレス方式で 機械学習(ML : Machine Learning)システムの 自動化、モニタリング、管理を行うことができます。
・Google Cloud / Vertex AI ※外部サイトへ
・Google Cloud Documentation / Vertex AI の 概要 ※外部サイトへ
・Google Cloud Documentation / Vertex AI Pipelines の 概要 ※外部サイトへ
Compute Engine
Compute Engine は、Google の インフラストラクチャ上で 仮想マシン(VM)を作成して実行できる、コンピューティング および ホスティング サービスです。Compute Engine は スケーラビリティと パフォーマンスに優れ、Google の インフラストラクチャ上に 大規模な コンピューティング クラスタを 簡単に構築できます。
・Google Cloud / Compute Engine ※外部サイトへ
・Google Cloud Documentation / Compute Engine の ドキュメント ※外部サイトへ
NRI における クラウドの取り組み
atlax for Google Cloud
野村総合研究所(NRI)は、Google Cloud の「プレミア Sell パートナー」 「プレミア Service パートナー」に 認定されています。コンサルティング、システム開発・運用、アナリティクス、生成 AI といった 幅広い分野で、お客様の課題解決に Google Cloud を活用し、ビジネスの推進を サポートしています。
■ 主な サービスメニュー
- Cloud Modernization …… Google Cloud の 先進技術を活用した IT 基盤サービス
- Application Modernization …… DevOps を実現するための インテグレーション サービス
- Data Driven / Marketing Analytics …… ビッグデータ技術を活用した データ分析・マーケティングソリューション
- Digital Workplace …… 次世代コンタクトセンター、新しい コラボレーションの実現
・atlax / クラウドの取り組み / atlax for Google Cloud ※カテゴリー TOPページ
・atlax / ニュース・トピックス / 「Google Cloud」カテゴリー の 記事一覧
・atlax blogs / 「Google Cloud」カテゴリー の 記事一覧 ※ atlax blogs サイトへ
