mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-08 07:10:41 +00:00
15 lines
1.1 KiB
Plaintext
15 lines
1.1 KiB
Plaintext
|
# Multimodal CoT Prompting
|
|||
|
|
|||
|
import { Callout, FileTree } from 'nextra-theme-docs'
|
|||
|
import {Screenshot} from 'components/screenshot'
|
|||
|
import MCOT from '../../img/multimodal-cot.png'
|
|||
|
|
|||
|
[Zhang et al. (2023)](https://arxiv.org/abs/2302.00923) ont récemment proposé une approche multimodale d'incitation à la chaîne de pensée. Le CoT traditionnel se concentre sur la modalité linguistique. En revanche, le CoT multimodal intègre le texte et la vision dans un cadre en deux étapes. La première étape consiste à générer une justification basée sur des informations multimodales. Ceci est suivi par la deuxième phase, l'inférence de réponse, qui exploite les justifications informatives générées.
|
|||
|
|
|||
|
Le modèle multimodal CoT (1B) surpasse GPT-3.5 sur le benchmark ScienceQA.
|
|||
|
|
|||
|
<Screenshot src={MCOT} alt="MCOT" />
|
|||
|
Image Source: [Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)
|
|||
|
|
|||
|
Lecture complémentaire :
|
|||
|
- [La langue n'est pas tout ce dont vous avez besoin : aligner la perception sur les modèles linguistiques] (https://arxiv.org/abs/2302.14045) (février 2023)
|