Prompt-Engineering-Guide/pages/risks.es.mdx
2024-01-16 00:38:05 -06:00

12 lines
1.0 KiB
Plaintext

# Riesgos y Malos Usos
import { Callout } from 'nextra-theme-docs'
import ContentFileNames from 'components/ContentFileNames'
Ya hemos visto lo efectivos que pueden ser los prompts bien elaborados para varias tareas utilizando técnicas como el aprendizaje de pocos ejemplos (few-shot learning) y el prompting encadenado (chain-of-thought prompting). A medida que pensamos en construir aplicaciones del mundo real sobre modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés), se vuelve crucial pensar en los abusos, riesgos y prácticas de seguridad involucradas con los modelos de lenguaje.
Esta sección se enfoca en destacar algunos de los riesgos y abusos de los LLMs a través de técnicas como la inyección de prompts. También destaca comportamientos dañinos y cómo mitigarlos potencialmente mediante técnicas de prompting efectivas. Otros temas de interés incluyen la generalización, la calibración, los sesgos, los sesgos sociales y la veracidad, por nombrar algunos.
<ContentFileNames section="risks" lang="es"/>