Reinforcement Learning from Human Feedback(RLHF)は、人間のフィードバックを基に学習を行う強化学習の一手法です。通常の強化学習は、あらかじめ設定された報酬関数に基づいてエージェント(AI)が行動を学習します。しかし、この報酬関数を正確に設定することは困難であり、それがAIの行動に予期しない結果を生む可能性があります。
それに対してRLHFでは、人間のフィードバックが報酬関数の役割を果たします。具体的には、AIが行動をとると、それを人間が評価し、その評価がAIの学習に反映されます。この方法によって、人間の価値観や意図により近い形でAIが行動を学習することができます。
例えば、AIが車の運転を学習する場合を考えてみましょう。普通の強化学習だと「できるだけ早く目的地につく」という報酬関数を設定するかもしれません。しかし、これだとAIは交通規則を無視してでも速度を優先するかもしれません。それに対してRLHFを使えば、人間が「交通規則を守ること」や「安全に運転すること」も評価するため、より適切な運転行動をAIが学習できます。