From 2df330cde32f1563adc029871005ad57430791ef Mon Sep 17 00:00:00 2001 From: Jay <127801635+jstayco@users.noreply.github.com> Date: Fri, 9 Aug 2024 12:18:27 -0700 Subject: [PATCH] Updated es_MX translation (#2829) Signed-off-by: JSTayco --- gpt4all-chat/translations/gpt4all_es_MX.ts | 2308 +++++++++----------- 1 file changed, 1007 insertions(+), 1301 deletions(-) diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts index e19b8d4a..b4471c97 100644 --- a/gpt4all-chat/translations/gpt4all_es_MX.ts +++ b/gpt4all-chat/translations/gpt4all_es_MX.ts @@ -15,17 +15,11 @@ Add Document Collection Agregar colección de documentos - - Add a folder containing plain text files, PDFs, or Markdown. Configure - additional extensions in Settings. - Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. - Configure extensiones adicionales en Configuración. - Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. - + Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. Configure extensiones adicionales en Configuración. @@ -85,367 +79,348 @@ AddModelView - - + + ← Existing Models ← Modelos existentes - - + + Explore Models Explorar modelos - - + + Discover and download models by keyword search... Descubre y descarga modelos mediante búsqueda por palabras clave... - - + + Text field for discovering and filtering downloadable models Campo de texto para descubrir y filtrar modelos descargables - - + + Initiate model discovery and filtering Iniciar descubrimiento y filtrado de modelos - - + + Triggers discovery and filtering of models Activa el descubrimiento y filtrado de modelos - - + + Default Predeterminado - - + + Likes Me gusta - - + + Downloads Descargas - - + + Recent Reciente - - + + Asc Asc - - + + Desc Desc - - + + None Ninguno - - + + Searching · %1 Buscando · %1 - - + + Sort by: %1 Ordenar por: %1 - - + + Sort dir: %1 Dirección de ordenamiento: %1 - - + + Limit: %1 Límite: %1 - - + + Network error: could not retrieve %1 Error de red: no se pudo recuperar %1 - - - - + + + + Busy indicator Indicador de ocupado - - + + Displayed when the models request is ongoing Se muestra cuando la solicitud de modelos está en curso - - + + Model file Archivo del modelo - - + + Model file to be downloaded Archivo del modelo a descargar - - + + Description Descripción - - + + File description Descripción del archivo - - + + Cancel Cancelar - - + + Resume Reanudar - - + + Download Descargar - - + + Stop/restart/start the download Detener/reiniciar/iniciar la descarga - - + + Remove Eliminar - - + + Remove model from filesystem Eliminar modelo del sistema de archivos - - - - + + + + Install Instalar - - + + Install online model Instalar modelo en línea - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> - + <strong><font size="1"><a href="#error">Error</a></strong></font> - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - + <strong><font size="2">ADVERTENCIA: No recomendado para tu hardware. El modelo requiere más memoria (%1 GB) de la que tu sistema tiene disponible (%2).</strong></font> - <strong><font size="2">WARNING: Not recommended for your - hardware. Model requires more memory (%1 GB) than your system has available - (%2).</strong></font> - <strong><font size="2">ADVERTENCIA: No recomendado - para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene - disponible - (%2).</strong></font> - - - - + + %1 GB %1 GB - - - - + + + + ? ? - - + + Describes an error that occurred when downloading Describe un error que ocurrió durante la descarga - <strong><font size="1"><a - href="#error">Error</a></strong></font> - <strong><font size="1"><a - href="#error">Error</a></strong></font> - - - - + + Error for incompatible hardware Error por hardware incompatible - - + + Download progressBar Barra de progreso de descarga - - + + Shows the progress made in the download Muestra el progreso realizado en la descarga - - + + Download speed Velocidad de descarga - - + + Download speed in bytes/kilobytes/megabytes per second Velocidad de descarga en bytes/kilobytes/megabytes por segundo - - + + Calculating... Calculando... + - - - + - - - Whether the file hash is being calculated Si se está calculando el hash del archivo - - + + Displayed when the file hash is being calculated Se muestra cuando se está calculando el hash del archivo + + + + enter $API_KEY + ingrese $API_KEY + + + + + File size + Tamaño del archivo + + + + + RAM required + RAM requerida + + + + + Parameters + Parámetros + + + + + Quant + Cuantificación + + + + + Type + Tipo + ERROR: $API_KEY is empty. - - - - - - enter $API_KEY - ingrese $API_KEY + ERROR: $API_KEY está vacío. ERROR: $BASE_URL is empty. - + ERROR: $BASE_URL está vacío. enter $BASE_URL - + ingrese $BASE_URL ERROR: $MODEL_NAME is empty. - + ERROR: $MODEL_NAME está vacío. enter $MODEL_NAME - - - - - - File size - Tamaño del archivo - - - - - RAM required - RAM requerida - - - - - Parameters - Parámetros - - - - - Quant - Cuantificación - - - - - Type - Tipo + ingrese $MODEL_NAME @@ -468,26 +443,6 @@ opt-in to share feedback/conversations optar por compartir comentarios/conversaciones - - ERROR: Update system could not find the MaintenanceTool used<br> - to check for updates!<br><br> - Did you install this application using the online installer? If so,<br> - the MaintenanceTool executable should be located one directory<br> - above where this application resides on your filesystem.<br><br> - If you can't start it manually, then I'm afraid you'll have - to<br> - reinstall. - ERROR: El sistema de actualización no pudo encontrar la herramienta de - mantenimiento utilizada<br> - para buscar actualizaciones<br><br> - ¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br> - el ejecutable de la herramienta de mantenimiento debería estar ubicado un - directorio<br> - por encima de donde reside esta aplicación en su sistema de - archivos.<br><br> - Si no puede iniciarlo manualmente, me temo que tendrá que<br> - reinstalar. - @@ -519,100 +474,244 @@ El esquema de colores de la aplicación. - - + + Dark Oscuro - - + + Light Claro - - + + LegacyDark Oscuro legado - - + + Font Size Tamaño de fuente - - + + The size of text in the application. El tamaño del texto en la aplicación. + + + + Device + Dispositivo + + + + The compute device used for text generation. "Auto" uses Vulkan or Metal. + El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal. + + + + + Small + Pequeño + + + + + Medium + Mediano + + + + + Large + Grande + + + + + Language and Locale + Idioma y configuración regional + + + + + The language and locale you wish to use. + El idioma y la configuración regional que deseas usar. + + + + + Default Model + Modelo predeterminado + + + + + The preferred model for new chats. Also used as the local server fallback. + El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local. + + + + + Suggestion Mode + Modo de sugerencia + + + + + Generate suggested follow-up questions at the end of responses. + Generar preguntas de seguimiento sugeridas al final de las respuestas. + + + + + When chatting with LocalDocs + Al chatear con LocalDocs + + + + + Whenever possible + Siempre que sea posible + + + + + Never + Nunca + + + + + Download Path + Ruta de descarga + + + + + Where to store local models and the LocalDocs database. + Dónde almacenar los modelos locales y la base de datos de LocalDocs. + + + + + Browse + Explorar + + + + + Choose where to save model files + Elegir dónde guardar los archivos del modelo + + + + + Enable Datalake + Habilitar Datalake + + + + + Send chats and feedback to the GPT4All Open-Source Datalake. + Enviar chats y comentarios al Datalake de código abierto de GPT4All. + + + + + Advanced + Avanzado + + + + + CPU Threads + Hilos de CPU + + + + + The number of CPU threads used for inference and embedding. + El número de hilos de CPU utilizados para inferencia e incrustación. + + + + + Save Chat Context + Guardar contexto del chat + + + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. + Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat. + + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos. + + + + + Enable Local Server + Habilitar servidor local + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased + resource usage. + Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta + en un mayor uso de recursos. + + + + + API Server Port + Puerto del servidor API + + + + + The port to use for the local server. Requires restart. + El puerto a utilizar para el servidor local. Requiere reinicio. + + + + + Check For Updates + Buscar actualizaciones + + + + + Manually check for an update to GPT4All. + Buscar manualmente una actualización para GPT4All. + + + + + Updates + Actualizaciones + System Locale - - - - - - Device - Dispositivo - - - The compute device used for text generation. "Auto" uses Vulkan or - Metal. - El dispositivo de cómputo utilizado para la generación de texto. - "Auto" utiliza Vulkan o Metal. - - - - - ERROR: Update system could not find the MaintenanceTool used<br> - to check for updates!<br><br> - Did you install this application using the online installer? If so,<br> - the MaintenanceTool executable should be located one directory<br> - above where this application resides on your filesystem.<br><br> - If you can't start it manually, then I'm afraid you'll have to<br> - reinstall. - - - - - - Small - - - - - - Medium - - - - - - Large - - - - - - Language and Locale - - - - - - The language and locale you wish to use. - + Regional del sistema The compute device used for text generation. - + El dispositivo de cómputo utilizado para la generación de texto. @@ -620,170 +719,25 @@ Application default - + Predeterminado de la aplicación - - - Default Model - Modelo predeterminado - - - - - The preferred model for new chats. Also used as the local server fallback. - El modelo preferido para nuevos chats. También se utiliza como respaldo del - servidor local. - - - - - Suggestion Mode - Modo de sugerencia - - - - - Generate suggested follow-up questions at the end of responses. - Generar preguntas de seguimiento sugeridas al final de las respuestas. - - - - - When chatting with LocalDocs - Al chatear con LocalDocs - - - - - Whenever possible - Siempre que sea posible - - - - - Never - Nunca - - - - - Download Path - Ruta de descarga - - - - - Where to store local models and the LocalDocs database. - Dónde almacenar los modelos locales y la base de datos de LocalDocs. - - - - - Browse - Explorar - - - - - Choose where to save model files - Elegir dónde guardar los archivos del modelo - - - - - Enable Datalake - Habilitar Datalake - - - - - Send chats and feedback to the GPT4All Open-Source Datalake. - Enviar chats y comentarios al Datalake de código abierto de GPT4All. - - - - - Advanced - Avanzado - - - - - CPU Threads - Hilos de CPU - - - - - The number of CPU threads used for inference and embedding. - El número de hilos de CPU utilizados para inferencia e incrustación. - - - - - Save Chat Context - Guardar contexto del chat - - - - - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - - - - - - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - - - - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB - per chat. - Guardar el estado del modelo de chat en el disco para una carga más rápida. - ADVERTENCIA: Usa ~2GB por chat. - - - - - Enable Local Server - Habilitar servidor local - - - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased - resource usage. - Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta - en un mayor uso de recursos. - - - - - API Server Port - Puerto del servidor API - - - - - The port to use for the local server. Requires restart. - El puerto a utilizar para el servidor local. Requiere reinicio. - - - - - Check For Updates - Buscar actualizaciones - - - - - Manually check for an update to GPT4All. - Buscar manualmente una actualización para GPT4All. - - - - - Updates - Actualizaciones + + + ERROR: Update system could not find the MaintenanceTool used<br> + to check for updates!<br><br> + Did you install this application using the online installer? If so,<br> + the MaintenanceTool executable should be located one directory<br> + above where this application resides on your filesystem.<br><br> + If you can't start it manually, then I'm afraid you'll have to<br> + reinstall. + ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br> + para buscar actualizaciones.<br><br> + ¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br> + el ejecutable de la Herramienta de Mantenimiento debería estar ubicado un directorio<br> + por encima de donde reside esta aplicación en su sistema de archivos.<br><br> + Si no puede iniciarlo manualmente, me temo que tendrá que<br> + reinstalar la aplicación. @@ -800,19 +754,6 @@ Chat del servidor - - ChatAPIWorker - - - ERROR: Network error occurred while connecting to the API server - - - - - ChatAPIWorker::handleFinished got HTTP Error %1 %2 - - - ChatDrawer @@ -1021,9 +962,9 @@ - + - + LocalDocs DocumentosLocales @@ -1040,240 +981,198 @@ agregar colecciones de documentos al chat - - + + Load the default model Cargar el modelo predeterminado - - + + Loads the default model which can be changed in settings Carga el modelo predeterminado que se puede cambiar en la configuración - - + + No Model Installed No hay modelo instalado - - GPT4All requires that you install at least one - model to get started - GPT4All requiere que instales al menos un - modelo para comenzar - <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - + <h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos en la carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, RAM del sistema insuficiente o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrate de que el archivo del modelo tenga un formato y tipo compatibles<li>Verifica que el archivo del modelo esté completo en la carpeta de descargas<li>Puedes encontrar la carpeta de descargas en el diálogo de configuración<li>Si has cargado el modelo manualmente, asegúrate de que el archivo no esté corrupto verificando el md5sum<li>Lee más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de discord</a> para obtener ayuda - - - GPT4All requires that you install at least one -model to get started - - - - - + + Install a Model Instalar un modelo - - + + Shows the add model view Muestra la vista de agregar modelo - - + + Conversation with the model Conversación con el modelo - - + + prompt / response pairs from the conversation pares de pregunta / respuesta de la conversación - - + + GPT4All GPT4All - - + + You + + recalculating context ... - recalculando contexto ... + recalculando contexto ... - - + + response stopped ... respuesta detenida ... - - + + processing ... procesando ... - - + + generating response ... generando respuesta ... - - + + generating questions ... generando preguntas ... - - - - + + + + Copy Copiar - - + + Copy Message Copiar mensaje - - + + Disable markdown Desactivar markdown - - + + Enable markdown Activar markdown - - + + Thumbs up Me gusta - - + + Gives a thumbs up to the response Da un me gusta a la respuesta - - + + Thumbs down No me gusta - - + + Opens thumbs down dialog Abre el diálogo de no me gusta - - + + %1 Sources %1 Fuentes - - + + Suggested follow-ups Seguimientos sugeridos - - + + Erase and reset chat session Borrar y reiniciar sesión de chat - - + + Copy chat session to clipboard Copiar sesión de chat al portapapeles - - + + Redo last chat response Rehacer última respuesta del chat - - + + Stop generating Detener generación - - + + Stop the current response generation Detener la generación de la respuesta actual - - + + Reloads the model Recarga el modelo - - <h3>Encountered an error loading - model:</h3><br><i>"%1"</i><br><br>Model - loading failures can happen for a variety of reasons, but the most common causes - include a bad file format, an incomplete or corrupted download, the wrong file type, - not enough system RAM or an incompatible model type. Here are some suggestions for - resolving the problem:<br><ul><li>Ensure the model file has a - compatible format and type<li>Check the model file is complete in the download - folder<li>You can find the download folder in the settings dialog<li>If - you've sideloaded the model ensure the file is not corrupt by checking - md5sum<li>Read more about what models are supported in our <a - href="https://docs.gpt4all.io/">documentation</a> for the - gui<li>Check out our <a - href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - <h3>Se encontró un error al cargar el - modelo:</h3><br><i>"%1"</i><br><br>Los - fallos de carga de modelos pueden ocurrir por varias razones, pero las causas más - comunes incluyen un formato de archivo incorrecto, una descarga incompleta o - corrupta, un tipo de archivo equivocado, insuficiente RAM del sistema o un tipo de - modelo incompatible. Aquí hay algunas sugerencias para resolver el - problema:<br><ul><li>Asegúrese de que el archivo del modelo tenga - un formato y tipo compatible<li>Verifique que el archivo del modelo esté - completo en la carpeta de descargas<li>Puede encontrar la carpeta de descargas - en el diálogo de configuración<li>Si ha cargado el modelo manualmente, - asegúrese de que el archivo no esté corrupto verificando el md5sum<li>Lea más - sobre qué modelos son compatibles en nuestra <a - href="https://docs.gpt4all.io/">documentación</a> para la - interfaz gráfica<li>Consulte nuestro <a - href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para - obtener ayuda - - + - + Reload · %1 Recargar · %1 @@ -1284,90 +1183,98 @@ model to get started Cargando · %1 - - + + Load · %1 (default) → Cargar · %1 (predeterminado) → + + + + retrieving localdocs: %1 ... + recuperando documentos locales: %1 ... + + + + + searching localdocs: %1 ... + buscando en documentos locales: %1 ... + + + + + Send a message... + Enviar un mensaje... + + + + + Load a model to continue... + Carga un modelo para continuar... + + + + + Send messages/prompts to the model + Enviar mensajes/indicaciones al modelo + + + + + Cut + Cortar + + + + + Paste + Pegar + + + + + Select All + Seleccionar todo + + + + + Send message + Enviar mensaje + + + + + Sends the message/prompt contained in textfield to the model + Envía el mensaje/indicación contenido en el campo de texto al modelo + + + + + GPT4All requires that you install at least one +model to get started + GPT4All requiere que instale al menos un +modelo para comenzar + + restoring from text ... - - - - - - retrieving localdocs: %1 ... - recuperando documentos locales: %1 ... - - - - - searching localdocs: %1 ... - buscando en documentos locales: %1 ... - - - - - Send a message... - Enviar un mensaje... - - - - - Load a model to continue... - Carga un modelo para continuar... - - - - - Send messages/prompts to the model - Enviar mensajes/indicaciones al modelo - - - - - Cut - Cortar - - - - - Paste - Pegar - - - - - Select All - Seleccionar todo - - - - - Send message - Enviar mensaje - - - - - Sends the message/prompt contained in textfield to the model - Envía el mensaje/indicación contenido en el campo de texto al modelo + restaurando desde texto ... CollectionsDrawer - - + + Warning: searching collections while indexing can return incomplete results - Advertencia: buscar en colecciones mientras se indexan puede devolver - resultados incompletos + Advertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos - - + + %n file(s) %n archivo @@ -1375,8 +1282,8 @@ model to get started - - + + %n word(s) %n palabra @@ -1384,62 +1291,24 @@ model to get started - - + + Updating Actualizando - - + + + Add Docs + Agregar documentos - - + + Select a collection to make it available to the chat model. Seleccione una colección para hacerla disponible al modelo de chat. - - Download - - - Model "%1" is installed successfully. - - - - - ERROR: $MODEL_NAME is empty. - - - - - ERROR: $API_KEY is empty. - - - - - ERROR: $BASE_URL is invalid. - - - - - ERROR: Model "%1 (%2)" is conflict. - - - - - Model "%1 (%2)" is installed successfully. - - - - - Model "%1" is removed. - - - HomeView @@ -1580,7 +1449,7 @@ model to get started Comma-separated list. LocalDocs will only attempt to process files with these extensions. - Lista separada por comas. DocumentosLocales solo intentará procesar + Lista separada por comas. DocumentosLocales solo intentará procesar archivos con estas extensiones. @@ -1598,7 +1467,7 @@ model to get started Embed documents using the fast Nomic API instead of a private local model. Requires restart. - Incrustar documentos usando la rápida API de Nomic en lugar de un modelo + Incrustar documentos usando la rápida API de Nomic en lugar de un modelo local privado. Requiere reinicio. @@ -1608,12 +1477,8 @@ model to get started Clave API de Nomic - API key to use for Nomic Embed. Get one from the Atlas <a - href="https://atlas.nomic.ai/cli-login">API keys page</a>. - Requires restart. - Clave API para usar con Nomic Embed. Obtén una en la <a - href="https://atlas.nomic.ai/cli-login">página de claves API</a> - de Atlas. Requiere reinicio. + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. + Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio. @@ -1624,32 +1489,26 @@ model to get started The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - El dispositivo de cómputo utilizado para las incrustaciones. + El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio. Comma-separated list. LocalDocs will only attempt to process files with these extensions. - + Lista separada por comas. LocalDocs solo intentará procesar archivos con estas extensiones. Embed documents using the fast Nomic API instead of a private local model. Requires restart. - - - - - - API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. - + Incrustar documentos usando la API rápida de Nomic en lugar de un modelo local privado. Requiere reinicio. The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - + El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio. @@ -1685,32 +1544,24 @@ model to get started Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - + Valores demasiado grandes pueden causar fallos en localdocs, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se añaden a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. - + Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta. Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. - + Máximo de N mejores coincidencias de fragmentos de documentos recuperados para añadir al contexto del prompt. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta. - - Values too large may cause localdocs failure, extremely slow responses or - failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to - the model's context window. More info <a - href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - - Valores demasiado grandes pueden causar fallos en documentos locales, - respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N - caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más - información <a - href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. + + Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. @@ -1718,28 +1569,12 @@ model to get started Document snippet size (characters) Tamaño del fragmento de documento (caracteres) - - Number of characters per document snippet. Larger numbers increase likelihood of - factual responses, but also result in slower generation. - Número de caracteres por fragmento de documento. Números más grandes - aumentan la probabilidad de respuestas fácticas, pero también resultan en una - generación más lenta. - Max document snippets per prompt Máximo de fragmentos de documento por indicación - - Max best N matches of retrieved document snippets to add to the context for - prompt. Larger numbers increase likelihood of factual responses, but also result in - slower generation. - Máximo de los mejores N coincidencias de fragmentos de documento - recuperados para agregar al contexto de la indicación. Números más grandes aumentan - la probabilidad de respuestas fácticas, pero también resultan en una generación más - lenta. - LocalDocsView @@ -1762,127 +1597,122 @@ model to get started + Agregar colección + + ERROR: The LocalDocs database is not valid. - ERROR: La base de datos de DocumentosLocales no es válida. + ERROR: La base de datos de DocumentosLocales no es válida. - - - <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. - - - - - + + No Collections Installed No hay colecciones instaladas - - + + Install a collection of local documents to get started using this feature - Instala una colección de documentos locales para comenzar a usar esta - función + Instala una colección de documentos locales para comenzar a usar esta función - - + + + Add Doc Collection + Agregar colección de documentos - - + + Shows the add model view Muestra la vista de agregar modelo - - + + Indexing progressBar Barra de progreso de indexación - - + + Shows the progress made in the indexing Muestra el progreso realizado en la indexación - - + + ERROR ERROR - - + + INDEXING INDEXANDO - - + + EMBEDDING INCRUSTANDO - - + + REQUIRES UPDATE REQUIERE ACTUALIZACIÓN - - + + READY LISTO - - + + INSTALLING INSTALANDO - - + + Indexing in progress Indexación en progreso - - + + Embedding in progress Incrustación en progreso - - + + This collection requires an update after version change Esta colección requiere una actualización después del cambio de versión - - + + Automatically reindexes upon changes to the folder Reindexación automática al cambiar la carpeta - - + + Installation in progress Instalación en progreso - - + + % % - - + + %n file(s) %n archivo @@ -1890,167 +1720,124 @@ model to get started - - + + %n word(s) %n palabra - %n palabras + %n palabra(s) - - + + Remove Eliminar - - + + Rebuild Reconstruir - - + + Reindex this folder from scratch. This is slow and usually not needed. - Reindexar esta carpeta desde cero. Esto es lento y generalmente no es - necesario. + Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario. - - + + Update Actualizar - - + + Update the collection to the new version. This is a slow operation. Actualizar la colección a la nueva versión. Esta es una operación lenta. + + + + <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. + <h3>ERROR: No se puede acceder a la base de datos LocalDocs o no es válida.</h3><br><i>Nota: Necesitará reiniciar después de intentar cualquiera de las siguientes soluciones sugeridas.</i><br><ul><li>Asegúrese de que la carpeta establecida como <b>Ruta de Descarga</b> exista en el sistema de archivos.</li><li>Verifique la propiedad y los permisos de lectura y escritura de la <b>Ruta de Descarga</b>.</li><li>Si hay un archivo <b>localdocs_v2.db</b>, verifique también su propiedad y permisos de lectura/escritura.</li></ul><br>Si el problema persiste y hay archivos 'localdocs_v*.db' presentes, como último recurso puede<br>intentar hacer una copia de seguridad y eliminarlos. Sin embargo, tendrá que recrear sus colecciones. + ModelList - - <ul><li>Requires personal OpenAI API - key.</li><li>WARNING: Will send your chats to - OpenAI!</li><li>Your API key will be stored on - disk</li><li>Will only be used to communicate with - OpenAI</li><li>You can apply for an API key <a - href="https://platform.openai.com/account/api-keys">here.</a></li> - - <ul><li>Requiere clave API personal de - OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a - OpenAI!</li><li>Su clave API se almacenará en el - disco</li><li>Solo se usará para comunicarse con - OpenAI</li><li>Puede solicitar una clave API <a - href="https://platform.openai.com/account/api-keys">aquí.</a></li> + + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> + <ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li> + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 - <strong>Modelo ChatGPT GPT-3.5 Turbo de + <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1 - - %1 (%2) - - - - - <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul> - - - - - <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> - - - - + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 - + <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1 - + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. - + <br><br><i>* Aunque pagues a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacta a OpenAI para más información. - + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2 - + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> - + <ul><li>Requiere una clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará tus chats a Mistral!</li><li>Tu clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puedes solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li> - + <strong>Mistral Tiny model</strong><br> %1 <strong>Modelo Mistral Tiny</strong><br> %1 - + <strong>Mistral Small model</strong><br> %1 <strong>Modelo Mistral Small</strong><br> %1 - + <strong>Mistral Medium model</strong><br> %1 <strong>Modelo Mistral Medium</strong><br> %1 - - <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> - - - - - <strong>Connect to OpenAI-compatible API server</strong><br> %1 - - - - + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> - + <strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Más información puede encontrarse <a href="https://huggingface.co/%5">aquí.</a></ul> - <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does - not guarantee API key access. Contact OpenAI for more info. - <br><br><i>* Aunque pague a OpenAI por ChatGPT-4, esto no - garantiza el acceso a la clave API. Contacte a OpenAI para más información. + + %1 (%2) + %1 (%2) - - <ul><li>Requires personal Mistral API - key.</li><li>WARNING: Will send your chats to - Mistral!</li><li>Your API key will be stored on - disk</li><li>Will only be used to communicate with - Mistral</li><li>You can apply for an API key <a - href="https://console.mistral.ai/user/api-keys">here</a>.</li> - - <ul><li>Requiere clave API personal de - Mistral.</li><li>ADVERTENCIA: ¡Enviará sus chats a - Mistral!</li><li>Su clave API se almacenará en el - disco</li><li>Solo se usará para comunicarse con - Mistral</li><li>Puede solicitar una clave API <a - href="https://console.mistral.ai/user/api-keys">aquí</a>.</li> + + <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul> + <strong>Modelo de API compatible con OpenAI</strong><br><ul><li>Clave API: %1</li><li>URL base: %2</li><li>Nombre del modelo: %3</li></ul> - <strong>Created by - %1.</strong><br><ul><li>Published on %2.<li>This model - has %3 likes.<li>This model has %4 downloads.<li>More info can be found - <a href="https://huggingface.co/%5">here.</a></ul> - <strong>Creado por - %1.</strong><br><ul><li>Publicado el %2.<li>Este - modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Puede - encontrar más información <a - href="https://huggingface.co/%5">aquí.</a></ul> + + <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> + <ul><li>Requiere una clave API personal y la URL base de la API.</li><li>ADVERTENCIA: ¡Enviará sus chats al servidor de API compatible con OpenAI que especificó!</li><li>Su clave API se almacenará en el disco</li><li>Solo se utilizará para comunicarse con el servidor de API compatible con OpenAI</li> + + + + <strong>Connect to OpenAI-compatible API server</strong><br> %1 + <strong>Conectar al servidor de API compatible con OpenAI</strong><br> %1 @@ -2098,10 +1885,9 @@ model to get started Indicación del sistema - Prefixed at the beginning of every conversation. Must contain the appropriate - framing tokens. - Prefijado al inicio de cada conversación. Debe contener los tokens de - encuadre apropiados. + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. + Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados. @@ -2116,10 +1902,9 @@ model to get started La plantilla que envuelve cada indicación. - Must contain the string "%1" to be replaced with the user's - input. - Debe contener la cadena "%1" para ser reemplazada con la entrada - del usuario. + + Must contain the string "%1" to be replaced with the user's input. + Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario. @@ -2134,87 +1919,177 @@ model to get started Indicación utilizada para generar automáticamente nombres de chat. - - + + Suggested FollowUp Prompt Indicación de seguimiento sugerida - - + + Prompt used to generate suggested follow-up questions. Indicación utilizada para generar preguntas de seguimiento sugeridas. - - + + Context Length Longitud del contexto - - + + Number of input and output tokens the model sees. Número de tokens de entrada y salida que el modelo ve. - Maximum combined prompt/response tokens before information is lost. - Using more context than the model was trained on will yield poor results. - NOTE: Does not take effect until you reload the model. - Máximo de tokens combinados de indicación/respuesta antes de que se pierda - información. - Usar más contexto del que se utilizó para entrenar el modelo producirá resultados - pobres. - NOTA: No tiene efecto hasta que recargues el modelo. + + Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. +NOTE: Does not take effect until you reload the model. + Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres. +NOTA: No tiene efecto hasta que recargues el modelo. - - + + Temperature Temperatura - - + + Randomness of model output. Higher -> more variation. Aleatoriedad de la salida del modelo. Mayor -> más variación. + Temperature increases the chances of choosing less likely tokens. - NOTE: Higher temperature gives more creative but less predictable outputs. - La temperatura aumenta las probabilidades de elegir tokens menos probables. - NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles. +NOTE: Higher temperature gives more creative but less predictable outputs. + La temperatura aumenta las probabilidades de elegir tokens menos probables. +NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles. - - + + Top-P Top-P - - + + Nucleus Sampling factor. Lower -> more predicatable. Factor de muestreo de núcleo. Menor -> más predecible. + Only the most likely tokens up to a total probability of top_p can be chosen. - NOTE: Prevents choosing highly unlikely tokens. - Solo se pueden elegir los tokens más probables hasta una probabilidad total - de top_p. - NOTA: Evita elegir tokens altamente improbables. +NOTE: Prevents choosing highly unlikely tokens. + Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p. +NOTA: Evita elegir tokens altamente improbables. - - - Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. - + + + Min-P + Min-P - - - Must contain the string "%1" to be replaced with the user's input. - + + + Minimum token probability. Higher -> more predictable. + Probabilidad mínima del token. Mayor -> más predecible. + + + + + Sets the minimum relative probability for a token to be considered. + Establece la probabilidad relativa mínima para que un token sea considerado. + + + + + Top-K + Top-K + + + + + Size of selection pool for tokens. + Tamaño del grupo de selección para tokens. + + + + + Only the top K most likely tokens will be chosen from. + Solo se elegirán los K tokens más probables. + + + + + Max Length + Longitud máxima + + + + + Maximum response length, in tokens. + Longitud máxima de respuesta, en tokens. + + + + + Prompt Batch Size + Tamaño del lote de indicaciones + + + + + The batch size used for prompt processing. + El tamaño del lote utilizado para el procesamiento de indicaciones. + + + + + Amount of prompt tokens to process at once. +NOTE: Higher values can speed up reading prompts but will use more RAM. + Cantidad de tokens de prompt a procesar de una vez. +NOTA: Valores más altos pueden acelerar la lectura de prompts, pero usarán más RAM. + + + + + Repeat Penalty + Penalización por repetición + + + + + Repetition penalty factor. Set to 1 to disable. + Factor de penalización por repetición. Establecer a 1 para desactivar. + + + + + Repeat Penalty Tokens + Tokens de penalización por repetición + + + + + Number of previous tokens used for penalty. + Número de tokens anteriores utilizados para la penalización. + + + + + GPU Layers + Capas de GPU + + + + + Number of model layers to load into VRAM. + Número de capas del modelo a cargar en la VRAM. @@ -2222,89 +2097,9 @@ model to get started Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. - - - - - - Temperature increases the chances of choosing less likely tokens. -NOTE: Higher temperature gives more creative but less predictable outputs. - - - - - - Only the most likely tokens up to a total probability of top_p can be chosen. -NOTE: Prevents choosing highly unlikely tokens. - - - - - - Min-P - Min-P - - - - - Minimum token probability. Higher -> more predictable. - Probabilidad mínima del token. Mayor -> más predecible. - - - - - Sets the minimum relative probability for a token to be considered. - Establece la probabilidad relativa mínima para que un token sea - considerado. - - - - - Top-K - Top-K - - - - - Size of selection pool for tokens. - Tamaño del grupo de selección para tokens. - - - - - Only the top K most likely tokens will be chosen from. - Solo se elegirán los K tokens más probables. - - - - - Max Length - Longitud máxima - - - - - Maximum response length, in tokens. - Longitud máxima de respuesta, en tokens. - - - - - Prompt Batch Size - Tamaño del lote de indicaciones - - - - - The batch size used for prompt processing. - El tamaño del lote utilizado para el procesamiento de indicaciones. - - - - - Amount of prompt tokens to process at once. -NOTE: Higher values can speed up reading prompts but will use more RAM. - + Máximo de tokens combinados de pregunta/respuesta antes de que se pierda información. +Usar más contexto del que el modelo fue entrenado producirá resultados deficientes. +NOTA: No surtirá efecto hasta que recargue el modelo. @@ -2312,340 +2107,268 @@ NOTE: Higher values can speed up reading prompts but will use more RAM. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. - - - - Amount of prompt tokens to process at once. - NOTE: Higher values can speed up reading prompts but will use more RAM. - Cantidad de tokens de indicación para procesar a la vez. - NOTA: Valores más altos pueden acelerar la lectura de indicaciones pero usarán más - RAM. - - - - - Repeat Penalty - Penalización por repetición - - - - - Repetition penalty factor. Set to 1 to disable. - Factor de penalización por repetición. Establecer a 1 para desactivar. - - - - - Repeat Penalty Tokens - Tokens de penalización por repetición - - - - - Number of previous tokens used for penalty. - Número de tokens anteriores utilizados para la penalización. - - - - - GPU Layers - Capas de GPU - - - - - Number of model layers to load into VRAM. - Número de capas del modelo a cargar en la VRAM. - - - How many model layers to load into VRAM. Decrease this if GPT4All runs out of - VRAM while loading this model. - Lower values increase CPU load and RAM usage, and make inference slower. - NOTE: Does not take effect until you reload the model. - Cuántas capas del modelo cargar en la VRAM. Disminuye esto si GPT4All se - queda sin VRAM al cargar este modelo. - Valores más bajos aumentan la carga de CPU y el uso de RAM, y hacen la inferencia - más lenta. - NOTA: No tiene efecto hasta que recargues el modelo. + Cuántas capas del modelo cargar en la VRAM. Disminuya esto si GPT4All se queda sin VRAM al cargar este modelo. +Valores más bajos aumentan la carga de la CPU y el uso de RAM, y hacen que la inferencia sea más lenta. +NOTA: No surte efecto hasta que recargue el modelo. ModelsView - - + + No Models Installed No hay modelos instalados - - + + Install a model to get started using GPT4All Instala un modelo para empezar a usar GPT4All - - - - + + + + + Add Model + Agregar modelo - - + + Shows the add model view Muestra la vista de agregar modelo - - + + Installed Models Modelos instalados - - + + Locally installed chat models Modelos de chat instalados localmente - - + + Model file Archivo del modelo - - + + Model file to be downloaded Archivo del modelo a descargar - - + + Description Descripción - - + + File description Descripción del archivo - - + + Cancel Cancelar - - + + Resume Reanudar - - + + Stop/restart/start the download Detener/reiniciar/iniciar la descarga - - + + Remove Eliminar - - + + Remove model from filesystem Eliminar modelo del sistema de archivos - - - - + + + + Install Instalar - - + + Install online model Instalar modelo en línea - <strong><font size="1"><a - href="#error">Error</a></strong></font> - <strong><font size="1"><a - href="#error">Error</a></strong></font> + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">Error</a></strong></font> - <strong><font size="2">WARNING: Not recommended for your - hardware. Model requires more memory (%1 GB) than your system has available - (%2).</strong></font> - <strong><font size="2">ADVERTENCIA: No recomendado - para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene - disponible (%2).</strong></font> + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font> - - + + %1 GB %1 GB - - + + ? ? - - + + Describes an error that occurred when downloading Describe un error que ocurrió durante la descarga - - - <strong><font size="1"><a href="#error">Error</a></strong></font> - - - - - - <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - - - - - + + Error for incompatible hardware Error por hardware incompatible - - + + Download progressBar Barra de progreso de descarga - - + + Shows the progress made in the download Muestra el progreso realizado en la descarga - - + + Download speed Velocidad de descarga - - + + Download speed in bytes/kilobytes/megabytes per second Velocidad de descarga en bytes/kilobytes/megabytes por segundo - - + + Calculating... Calculando... + - - - + - - - Whether the file hash is being calculated Si se está calculando el hash del archivo - - + + Busy indicator Indicador de ocupado - - + + Displayed when the file hash is being calculated Se muestra cuando se está calculando el hash del archivo + + + + enter $API_KEY + ingrese $API_KEY + + + + + File size + Tamaño del archivo + + + + + RAM required + RAM requerida + + + + + Parameters + Parámetros + + + + + Quant + Cuantificación + + + + + Type + Tipo + ERROR: $API_KEY is empty. - - - - - - enter $API_KEY - ingrese $API_KEY + ERROR: $API_KEY está vacía. ERROR: $BASE_URL is empty. - + ERROR: $BASE_URL está vacía. enter $BASE_URL - + ingrese $BASE_URL ERROR: $MODEL_NAME is empty. - + ERROR: $MODEL_NAME está vacío. enter $MODEL_NAME - - - - - - File size - Tamaño del archivo - - - - - RAM required - RAM requerida - - - - - Parameters - Parámetros - - - - - Quant - Cuantificación - - - - - Type - Tipo + ingrese $MODEL_NAME @@ -2696,38 +2419,17 @@ NOTE: Does not take effect until you reload the model. Contribuir datos al Datalake de código abierto de GPT4All. - By enabling this feature, you will be able to participate in the democratic - process of training a large language model by contributing data for future model - improvements. + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will +be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its +response. If you dislike a response, you can suggest an alternative response. This +data will be collected and aggregated in the GPT4All Datalake. - When a GPT4All model responds to you and you have opted-in, your conversation will - be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its - response. If you dislike a response, you can suggest an alternative response. This - data will be collected and aggregated in the GPT4All Datalake. - - NOTE: By turning on this feature, you will be sending your data to the GPT4All Open - Source Datalake. You should have no expectation of chat privacy when this feature is - enabled. You should; however, have an expectation of an optional attribution if you - wish. Your chat data will be openly available for anyone to download and will be - used by Nomic AI to improve future GPT4All models. Nomic AI will retain all - attribution information attached to your data and you will be credited as a - contributor to any GPT4All model release that uses your data! - Al habilitar esta función, podrá participar en el proceso democrático de - entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras - mejoras del modelo. - - Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se - enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me - gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. - Estos datos se recopilarán y agregarán en el Datalake de GPT4All. - - NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de - GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. - Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat - estarán disponibles abiertamente para que cualquiera los descargue y serán - utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará - toda la información de atribución adjunta a sus datos y se le acreditará como - contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! + Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. + +NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. @@ -2737,7 +2439,11 @@ NOTE: Does not take effect until you reload the model. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - + Al habilitar esta función, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. + +Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. + +NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Código Abierto de GPT4All. No debes esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puedes esperar una atribución opcional si lo deseas. Tus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a tus datos y se te acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice tus datos. @@ -2839,8 +2545,9 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O QObject + Default - Predeterminado + Predeterminado @@ -2886,14 +2593,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Welcome! ¡Bienvenido! - - ### Release notes - %1### Contributors - %2 - ### Notas de la versión - %1### Contribuidores - %2 - @@ -2906,79 +2605,30 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Release notes for this version Notas de la versión para esta versión - - ### Opt-ins for anonymous usage analytics and datalake - By enabling these features, you will be able to participate in the democratic - process of training a - large language model by contributing data for future model improvements. - - When a GPT4All model responds to you and you have opted-in, your conversation will - be sent to the GPT4All - Open Source Datalake. Additionally, you can like/dislike its response. If you - dislike a response, you - can suggest an alternative response. This data will be collected and aggregated in - the GPT4All Datalake. - - NOTE: By turning on this feature, you will be sending your data to the GPT4All Open - Source Datalake. - You should have no expectation of chat privacy when this feature is enabled. You - should; however, have - an expectation of an optional attribution if you wish. Your chat data will be openly - available for anyone - to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI - will retain all - attribution information attached to your data and you will be credited as a - contributor to any GPT4All - model release that uses your data! - ### Aceptación para análisis de uso anónimo y datalake - Al habilitar estas funciones, podrá participar en el proceso democrático de entrenar - un - modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. - Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se - enviará al - Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su - respuesta. Si no le gusta una respuesta, - puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake - de GPT4All. - - NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de - GPT4All. - No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin - embargo, puede - esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles - abiertamente para que cualquiera - los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de - GPT4All. Nomic AI conservará toda la - información de atribución adjunta a sus datos y se le acreditará como contribuyente - en cualquier lanzamiento de modelo GPT4All - que utilice sus datos. - ### Release notes %1### Contributors -%2 - +%2 + + ### Notas de la versión +%1### Colaboradores +%2 + - ### Opt-ins for anonymous usage analytics and datalake -By enabling these features, you will be able to participate in the democratic process of training a -large language model by contributing data for future model improvements. + ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. -When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All -Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you -can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. - -NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. -You should have no expectation of chat privacy when this feature is enabled. You should; however, have -an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone -to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all -attribution information attached to your data and you will be credited as a contributor to any GPT4All -model release that uses your data! - +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! + ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. + +NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Código Abierto de GPT4All. No debes esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puedes esperar una atribución opcional si lo deseas. Tus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a tus datos y se te acreditará como colaborador en cualquier lanzamiento de modelo GPT4All que utilice tus datos. + @@ -3066,20 +2716,63 @@ model release that uses your data! Allow opt-out anonymous sharing of chats to the GPT4All Datalake Permitir rechazar el compartir anónimo de chats con el Datalake de GPT4All + + + + ### Release notes +%1### Contributors +%2 + ### Notas de la versión +%1### Colaboradores +%2 + + + + + + ### Opt-ins for anonymous usage analytics and datalake +By enabling these features, you will be able to participate in the democratic process of training a +large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All +Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you +can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. +You should have no expectation of chat privacy when this feature is enabled. You should; however, have +an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone +to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all +attribution information attached to your data and you will be credited as a contributor to any GPT4All +model release that uses your data! + ### Consentimiento para análisis de uso anónimo y lago de datos +Al habilitar estas funciones, podrá participar en el proceso democrático de entrenar un +modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. + +Cuando un modelo GPT4All le responda y usted haya dado su consentimiento, su conversación se enviará al +Lago de Datos de Código Abierto de GPT4All. Además, puede indicar si le gusta o no su respuesta. Si no le gusta una respuesta, +puede sugerir una respuesta alternativa. Estos datos se recopilarán y agregarán en el Lago de Datos de GPT4All. + +NOTA: Al activar esta función, estará enviando sus datos al Lago de Datos de Código Abierto de GPT4All. +No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede +esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera +los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda +la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier +lanzamiento de modelo GPT4All que utilice sus datos. + SwitchModelDialog <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>Advertencia:</b> cambiar el modelo borrará la conversación + <b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Desea continuar? <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - + <b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Deseas continuar? @@ -3144,61 +2837,23 @@ model release that uses your data! main - - - <h3>Encountered an error starting - up:</h3><br><i>"Incompatible hardware - detected."</i><br><br>Unfortunately, your CPU does not meet - the minimal requirements to run this program. In particular, it does not support AVX - intrinsics which this program requires to successfully run a modern large language - model. The only solution at this time is to upgrade your hardware to a more modern - CPU.<br><br>See here for more information: <a - href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - - <h3>Se encontró un error al - iniciar:</h3><br><i>"Hardware incompatible - detectado."</i><br><br>Desafortunadamente, su CPU no cumple - con los requisitos mínimos para ejecutar este programa. En particular, no soporta - las instrucciones AVX que este programa requiere para ejecutar con éxito un modelo - de lenguaje grande moderno. La única solución en este momento es actualizar su - hardware a una CPU más moderna.<br><br>Vea aquí para más información: - <a - href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - GPT4All v%1 GPT4All v%1 - - <h3>Encountered an error starting - up:</h3><br><i>"Inability to access settings - file."</i><br><br>Unfortunately, something is preventing the - program from accessing the settings file. This could be caused by incorrect - permissions in the local app config directory where the settings file is located. - Check out our <a href="https://discord.gg/4M2QFmTt2k">discord - channel</a> for help. - <h3>Se encontró un error al - iniciar:</h3><br><i>"No se puede acceder al archivo de - configuración."</i><br><br>Desafortunadamente, algo está - impidiendo que el programa acceda al archivo de configuración. Esto podría ser - causado por permisos incorrectos en el directorio de configuración local de la - aplicación donde se encuentra el archivo de configuración. Consulte nuestro <a - href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para - obtener ayuda. - <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - + <h3>Se encontró un error al iniciar:</h3><br><i>"Se detectó hardware incompatible."</i><br><br>Desafortunadamente, tu CPU no cumple con los requisitos mínimos para ejecutar este programa. En particular, no soporta instrucciones AVX, las cuales este programa requiere para ejecutar con éxito un modelo de lenguaje grande moderno. La única solución en este momento es actualizar tu hardware a una CPU más moderna.<br><br>Consulta aquí para más información: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. - + <h3>Se encontró un error al iniciar:</h3><br><i>"No se puede acceder al archivo de configuración."</i><br><br>Desafortunadamente, algo está impidiendo que el programa acceda al archivo de configuración. Esto podría ser causado por permisos incorrectos en el directorio de configuración local de la aplicación donde se encuentra el archivo de configuración. Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda. @@ -3280,7 +2935,7 @@ model release that uses your data! LocalDocs - DocumentosLocales + DocsLocales @@ -3333,4 +2988,55 @@ model release that uses your data! Vista de modelos instalados + + ChatAPIWorker + + + ERROR: Network error occurred while connecting to the API server + ERROR: Ocurrió un error de red al conectar con el servidor API + + + + ChatAPIWorker::handleFinished got HTTP Error %1 %2 + ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2 + + + + Download + + + Model "%1" is installed successfully. + El modelo "%1" se ha instalado correctamente. + + + + ERROR: $MODEL_NAME is empty. + ERROR: $MODEL_NAME está vacío. + + + + ERROR: $API_KEY is empty. + ERROR: $API_KEY está vacía. + + + + ERROR: $BASE_URL is invalid. + ERROR: $BASE_URL no es válida. + + + + ERROR: Model "%1 (%2)" is conflict. + ERROR: El modelo "%1 (%2)" está en conflicto. + + + + Model "%1 (%2)" is installed successfully. + El modelo "%1 (%2)" se ha instalado correctamente. + + + + Model "%1" is removed. + El modelo "%1" ha sido eliminado. + +