研究の概要
太陽光発電(PV)の急激な出力変動(ランプイベント)は、系統運用において予備電力の瞬時供給や調整力手配を必要とし、再エネ大量導入の障壁となっている。本研究はAIを用いた全天空映像の予測とPV出力予測を統合した新フレームワークを提案する。
システムは2つのモデルで構成される。①「PhyDiffNet」:雲の動きというカオス的ダイナミクスに基づき高忠実度な全天動画の未来フレームを生成する物理プロセス組み込み拡散モデル。②「RaPVFormer」:ランプイベントを認識するPV出力予測モデル。全天カメラ画像を1分間隔でキャプチャし16分先まで予測することで、出力変動が起きる前に系統オペレーターが対応可能な時間窓を提供する。注意機構の可視化により、照射量変動に影響する雲遮蔽領域を解釈可能な形で特定できる。
主な発見・成果
広範な定量評価の結果、全天動画予測(構造・知覚・時間的品質)とPV出力予測の両面で最先端性能を達成。PVランプ検出の臨界成功指数(CSI: Critical Success Index)は従来比10%向上。マルチモーダルな感知アプローチ(動画+数値予測)により、超短期(sub-hourly)の太陽光予測精度が大幅に改善されることを示した。
実務への応用
太陽光比率の高い電力系統(特に離島・地方系統や工場内マイクログリッド)でのランプイベント予測は、不要な調整力の確保コストと系統安定化のための化石燃料バックアップ依存度を削減できる。全天カメラは低コストで設置可能なため、大規模太陽光発電所や工場屋根置きPVへの実装が現実的。調整力の「見えないコスト」削減、ひいては脱炭素電力の系統安定化コストの低減に貢献する。