mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-16 06:12:45 +00:00
12 lines
1.0 KiB
Plaintext
12 lines
1.0 KiB
Plaintext
# Riesgos y Malos Usos
|
|
|
|
import { Callout } from 'nextra-theme-docs'
|
|
import ContentFileNames from 'components/ContentFileNames'
|
|
|
|
|
|
Ya hemos visto lo efectivos que pueden ser los prompts bien elaborados para varias tareas utilizando técnicas como el aprendizaje de pocos ejemplos (few-shot learning) y el prompting encadenado (chain-of-thought prompting). A medida que pensamos en construir aplicaciones del mundo real sobre modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés), se vuelve crucial pensar en los abusos, riesgos y prácticas de seguridad involucradas con los modelos de lenguaje.
|
|
|
|
Esta sección se enfoca en destacar algunos de los riesgos y abusos de los LLMs a través de técnicas como la inyección de prompts. También destaca comportamientos dañinos y cómo mitigarlos potencialmente mediante técnicas de prompting efectivas. Otros temas de interés incluyen la generalización, la calibración, los sesgos, los sesgos sociales y la veracidad, por nombrar algunos.
|
|
|
|
|
|
<ContentFileNames section="risks" lang="es"/> |