ビジネス+IT編集部
大規模言語モデルの開発において、アウトプットの質をチェックする「エバリュエーション(評価)」プロセスは非常に重要だ。ChatGPTが人間らしい回答を生成できるのも、このプロセスがあってこそといわれている。しかし、このプロセスには大量の人的資源・時間・資金が必要となるだけでなく、バイアス問題などの課題が多数存在しており、現在その課題解決に向けた動きが活発化している。そんな中、メタが2024年8月に発表した「Self-Taught Evaluator」は、LLMに自己改善ループの能力を与えるアプローチとして注目を集める存在に。どのようなアプローチなのか、評価プロセスの現状に触れつつ、その詳細を解説したい。