研究の概要

風力発電ファームの発電量を最大化するためには、複数の風車の向き(ヨー角)をリアルタイムで制御し、上流の風車が発生するウェイク(乱流の尾流)が下流の風車に与える影響を最小化する必要がある。強化学習(RL)はこうした複雑な最適化問題に有望なアプローチであるが、学習初期の性能が低く、収束に時間がかかるという実用上の課題があった。

本研究では、PyWakeベースの定常状態オプティマイザーを用いて生成した「専門家デモンストレーション」で強化学習エージェントを事前学習(行動クローニング)するアプローチを提案した。事前学習済みのSoft Actor-Critic(SAC)エージェントを本番環境でファインチューニングすることで、初期パフォーマンスと収束速度の双方を大幅に改善した。

主な発見・成果

  • 事前学習なしのエージェントは初期段階でベースラインを約12%下回るが、提案手法ではほぼベースライン水準からスタート
  • 全設定において25万ステップ以内で収束(未学習エージェントは更に長い学習を要する)
  • 50万ステップ後、学習済みコントローラーはルックアップテーブル式ベースラインを上回り、約7%の発電量増加を達成
  • 定常状態ウェイクモデルからの知識移転が実環境での学習を効果的に促進することを実証

実務への応用

風力発電事業者にとって、RL制御の「実用展開の障壁」を下げる研究成果として注目される。既設風力ファームに物理ベースのシミュレーターが存在する場合、それを活用してRL学習を加速させる手法は、新設・既設を問わず適用可能。発電量7%増加は大規模ウィンドファームでは収益性に直結するインパクトであり、再生可能エネルギーのCFD(設備利用率)改善策として制御技術の高度化を検討する価値がある。