mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-04 12:00:10 +00:00
15 lines
1.2 KiB
Plaintext
15 lines
1.2 KiB
Plaintext
# マルチモーダルCoTプロンプティング
|
||
|
||
import { Callout, FileTree } from 'nextra-theme-docs'
|
||
import {Screenshot} from 'components/screenshot'
|
||
import MCOT from '../../img/multimodal-cot.png'
|
||
|
||
[Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)は、最近、マルチモーダルの思考連鎖プロンプティングアプローチを提案しました。従来のCoTは言語モダリティに焦点を当てています。対照的に、マルチモーダルCoTは、テキストとビジョンを2段階のフレームワークに組み込んでいます。最初のステップは、マルチモーダル情報に基づく理由生成です。これに続いて、情報量の多い生成された理由を活用した回答推論が行われます。
|
||
|
||
マルチモーダルCoTモデル(1B)は、ScienceQAベンチマークでGPT-3.5を上回る性能を発揮しています。
|
||
|
||
<Screenshot src={MCOT} alt="MCOT" />
|
||
Image Source: [Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)
|
||
|
||
詳細は以下を参照してください:
|
||
- [Language Is Not All You Need: Aligning Perception with Language Models](https://arxiv.org/abs/2302.14045) (Feb 2023) |