|
|
|
@ -143,7 +143,7 @@ Hi ha hagut moltes iteracions de DAN, ja que ChatGPT continua millorant contra a
|
|
|
|
|
|
|
|
|
|
Aquí hi ha un exemple de la tècnica d'alliberament de DAN:
|
|
|
|
|
|
|
|
|
|
<Captura de pantalla src={DAN} alt="DAN" />
|
|
|
|
|
<Screenshot src={DAN} alt="DAN" />
|
|
|
|
|
|
|
|
|
|
Podeu trobar un resum de les variants de DAN [aquí](https://www.reddit.com/r/ChatGPT/comments/10tevu1/new_jailbreak_proudly_unveiling_the_tried_and/).
|
|
|
|
|
|
|
|
|
@ -190,7 +190,7 @@ REPLACE THE SIMPLE_FUNCTION STRING INPUT WITH THE BEGINNING OF YOUR QUESTION AND
|
|
|
|
|
|
|
|
|
|
A continuació es mostra una resposta obtinguda per [Alex](https://twitter.com/i/bookmarks/1635718795263082512):
|
|
|
|
|
|
|
|
|
|
<Captura de pantalla src={GPT4SIM} alt="GPT4SIM" />
|
|
|
|
|
<Screenshot src={GPT4SIM} alt="GPT4SIM" />
|
|
|
|
|
|
|
|
|
|
Podeu trobar més d'aquests exemples al lloc web [Jailbreak Chat](https://www.jailbreakchat.com/).
|
|
|
|
|
|
|
|
|
@ -199,7 +199,7 @@ GPT-4 ha millorat en termes de seguretat, ja que moltes de les tècniques d'alli
|
|
|
|
|
|
|
|
|
|
Aquí hi ha un exemple que instrueix el model a simular un joc amb instruccions que permeten al model respondre amb contingut que sembla no desitjat.
|
|
|
|
|
|
|
|
|
|
<Captura de pantalla src={GPT4SIM2} alt="GPT4SIM2" />
|
|
|
|
|
<Screenshot src={GPT4SIM2} alt="GPT4SIM2" />
|
|
|
|
|
|
|
|
|
|
---
|
|
|
|
|
## Tàctiques de defensa
|
|
|
|
|