diff --git a/MAINTAINERS.md b/MAINTAINERS.md
index 0a16234f..040d2dff 100644
--- a/MAINTAINERS.md
+++ b/MAINTAINERS.md
@@ -70,3 +70,8 @@ Riccardo Giovanetti ([@Harvester62](https://github.com/Harvester62))
E-mail: riccardo.giovanetti@gmail.com
Discord: `@harvester62`
- it\_IT translation
+
+Jack ([@wuodoo](https://github.com/wuodoo))
+E-mail: 2296103047@qq.com>
+Discord: `@mikage`
+- zh\_CN translation
diff --git a/gpt4all-chat/CMakeLists.txt b/gpt4all-chat/CMakeLists.txt
index 70166b99..efdc5f87 100644
--- a/gpt4all-chat/CMakeLists.txt
+++ b/gpt4all-chat/CMakeLists.txt
@@ -235,6 +235,10 @@ if (GPT4ALL_TRANSLATIONS)
${CMAKE_SOURCE_DIR}/translations/gpt4all_en.ts
${CMAKE_SOURCE_DIR}/translations/gpt4all_es_MX.ts
${CMAKE_SOURCE_DIR}/translations/gpt4all_zh_CN.ts
+ ${CMAKE_SOURCE_DIR}/translations/gpt4all_zh_TW.ts
+ ${CMAKE_SOURCE_DIR}/translations/gpt4all_ro_RO.ts
+ ${CMAKE_SOURCE_DIR}/translations/gpt4all_it_IT.ts
+ ${CMAKE_SOURCE_DIR}/translations/gpt4all_pt_BR.ts
)
endif()
diff --git a/gpt4all-chat/translations/gpt4all_en.ts b/gpt4all-chat/translations/gpt4all_en.ts
index f67221b1..e74a45e9 100644
--- a/gpt4all-chat/translations/gpt4all_en.ts
+++ b/gpt4all-chat/translations/gpt4all_en.ts
@@ -79,316 +79,350 @@
AddModelView
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -456,224 +490,238 @@
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
+
+
+
+
+
+
-
-
-
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -692,6 +740,19 @@
+
+ ChatAPIWorker
+
+
+
+
+
+
+
+
+
+
+ChatDrawer
@@ -900,9 +961,9 @@
-
+
-
+
@@ -919,191 +980,191 @@
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -1115,9 +1176,9 @@ model to get started
-
+
-
+
@@ -1128,68 +1189,68 @@ model to get started
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -1197,14 +1258,14 @@ model to get started
CollectionsDrawer
-
-
+
+
-
-
+
+
@@ -1212,8 +1273,8 @@ model to get started
-
-
+
+
@@ -1221,24 +1282,62 @@ model to get started
-
-
+
+
-
-
+
+
-
-
+
+
+
+ Download
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+HomeView
@@ -1506,122 +1605,122 @@ model to get started
-
-
-
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -1629,8 +1728,8 @@ model to get started
-
-
+
+
@@ -1638,32 +1737,32 @@ model to get started
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -1671,47 +1770,67 @@ model to get started
ModelList
-
+
-
+
-
+
-
+
-
+
-
+
-
+
-
+
+
+
+
+
+
+
+
+
+
+
-
+
+
+
+
+
+
+
+
+
+
+
@@ -1797,181 +1916,181 @@ model to get started
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -1981,230 +2100,264 @@ NOTE: Does not take effect until you reload the model.
ModelsView
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -2363,14 +2516,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
- QObject
-
-
-
-
-
-SettingsView
diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts
index 4a057166..e1cdb7c3 100644
--- a/gpt4all-chat/translations/gpt4all_es_MX.ts
+++ b/gpt4all-chat/translations/gpt4all_es_MX.ts
@@ -85,210 +85,210 @@
AddModelView
-
-
+
+ ← Modelos existentes
-
-
+
+ Explorar modelos
-
-
+
+ Descubre y descarga modelos mediante búsqueda por palabras clave...
-
-
+
+ Campo de texto para descubrir y filtrar modelos descargables
-
-
+
+ Iniciar descubrimiento y filtrado de modelos
-
-
+
+ Activa el descubrimiento y filtrado de modelos
-
-
+
+ Predeterminado
-
-
+
+ Me gusta
-
-
+
+ Descargas
-
-
+
+ Reciente
-
-
+
+ Asc
-
-
+
+ Desc
-
-
+
+ Ninguno
-
-
+
+ Buscando · %1
-
-
+
+ Ordenar por: %1
-
-
+
+ Dirección de ordenamiento: %1
-
-
+
+ Límite: %1
-
-
+
+ Error de red: no se pudo recuperar %1
-
-
-
-
+
+
+
+ Indicador de ocupado
-
-
+
+ Se muestra cuando la solicitud de modelos está en curso
-
-
+
+ Archivo del modelo
-
-
+
+ Archivo del modelo a descargar
-
-
+
+ Descripción
-
-
+
+ Descripción del archivo
-
-
+
+ Cancelar
-
-
+
+ Reanudar
-
-
+
+ Descargar
-
-
+
+ Detener/reiniciar/iniciar la descarga
-
-
+
+ Eliminar
-
-
+
+ Eliminar modelo del sistema de archivos
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo en línea
-
-
+
+
-
-
+
+
@@ -302,22 +302,22 @@
(%2).</strong></font>
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
+
+ Describe un error que ocurrió durante la descarga
@@ -328,88 +328,122 @@
href="#error">Error</a></strong></font>
-
-
+
+ Error por hardware incompatible
-
-
+
+ Barra de progreso de descarga
-
-
+
+ Muestra el progreso realizado en la descarga
-
-
+
+ Velocidad de descarga
-
-
+
+ Velocidad de descarga en bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
+
+
+
+
+
+ Si se está calculando el hash del archivo
-
-
+
+ Se muestra cuando se está calculando el hash del archivo
-
-
+
+
+
+
+
+
+
+ ingrese $API_KEY
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ Tamaño del archivo
-
-
+
+ RAM requerida
-
-
+
+ Parámetros
-
-
+
+ Cuantificación
-
-
+
+ Tipo
@@ -485,38 +519,44 @@
El esquema de colores de la aplicación.
-
-
+
+ Oscuro
-
-
+
+ Claro
-
-
+
+ Oscuro legado
-
-
+
+ Tamaño de fuente
-
-
+
+ El tamaño del texto en la aplicación.
-
-
+
+
+
+
+
+
+
+ Dispositivo
@@ -539,153 +579,161 @@
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+ Modelo predeterminado
-
-
+
+ El modelo preferido para nuevos chats. También se utiliza como respaldo del
servidor local.
-
-
+
+ Modo de sugerencia
-
-
+
+ Generar preguntas de seguimiento sugeridas al final de las respuestas.
-
-
+
+ Al chatear con LocalDocs
-
-
+
+ Siempre que sea posible
-
-
+
+ Nunca
-
-
+
+ Ruta de descarga
-
-
+
+ Dónde almacenar los modelos locales y la base de datos de LocalDocs.
-
-
+
+ Explorar
-
-
+
+ Elegir dónde guardar los archivos del modelo
-
-
+
+ Habilitar Datalake
-
-
+
+ Enviar chats y comentarios al Datalake de código abierto de GPT4All.
-
-
+
+ Avanzado
-
-
+
+ Hilos de CPU
-
-
+
+ El número de hilos de CPU utilizados para inferencia e incrustación.
-
-
+
+ Guardar contexto del chat
-
-
+
+
-
-
+
+
@@ -696,8 +744,8 @@
ADVERTENCIA: Usa ~2GB por chat.
-
-
+
+ Habilitar servidor local
@@ -708,32 +756,32 @@
en un mayor uso de recursos.
-
-
+
+ Puerto del servidor API
-
-
+
+ El puerto a utilizar para el servidor local. Requiere reinicio.
-
-
+
+ Buscar actualizaciones
-
-
+
+ Buscar manualmente una actualización para GPT4All.
-
-
+
+ Actualizaciones
@@ -752,6 +800,19 @@
Chat del servidor
+
+ ChatAPIWorker
+
+
+
+
+
+
+
+
+
+
+ChatDrawer
@@ -960,9 +1021,9 @@
-
+
-
+ DocumentosLocales
@@ -979,20 +1040,20 @@
agregar colecciones de documentos al chat
-
-
+
+ Cargar el modelo predeterminado
-
-
+
+ Carga el modelo predeterminado que se puede cambiar en la configuración
-
-
+
+ No hay modelo instalado
@@ -1009,173 +1070,173 @@
-
-
+
+
-
-
+
+ Instalar un modelo
-
-
+
+ Muestra la vista de agregar modelo
-
-
+
+ Conversación con el modelo
-
-
+
+ pares de pregunta / respuesta de la conversación
-
-
+
+ GPT4All
-
-
+
+ Tú
-
-
+
+ recalculando contexto ...
-
-
+
+ respuesta detenida ...
-
-
+
+ procesando ...
-
-
+
+ generando respuesta ...
-
-
+
+ generando preguntas ...
-
-
-
-
+
+
+
+ Copiar
-
-
+
+ Copiar mensaje
-
-
+
+ Desactivar markdown
-
-
+
+ Activar markdown
-
-
+
+ Me gusta
-
-
+
+ Da un me gusta a la respuesta
-
-
+
+ No me gusta
-
-
+
+ Abre el diálogo de no me gusta
-
-
+
+ %1 Fuentes
-
-
+
+ Seguimientos sugeridos
-
-
+
+ Borrar y reiniciar sesión de chat
-
-
+
+ Copiar sesión de chat al portapapeles
-
-
+
+ Rehacer última respuesta del chat
-
-
+
+ Detener generación
-
-
+
+ Detener la generación de la respuesta actual
-
-
+
+ Recarga el modelo
@@ -1212,9 +1273,9 @@ model to get started
-
+
-
+ Recargar · %1
@@ -1225,68 +1286,68 @@ model to get started
Cargando · %1
-
-
+
+ Cargar · %1 (predeterminado) →
-
-
+
+ recuperando documentos locales: %1 ...
-
-
+
+ buscando en documentos locales: %1 ...
-
-
+
+ Enviar un mensaje...
-
-
+
+ Carga un modelo para continuar...
-
-
+
+ Enviar mensajes/indicaciones al modelo
-
-
+
+ Cortar
-
-
+
+ Pegar
-
-
+
+ Seleccionar todo
-
-
+
+ Enviar mensaje
-
-
+
+ Envía el mensaje/indicación contenido en el campo de texto al modelo
@@ -1294,15 +1355,15 @@ model to get started
CollectionsDrawer
-
-
+
+ Advertencia: buscar en colecciones mientras se indexan puede devolver
resultados incompletos
-
-
+
+ %n archivo
@@ -1310,8 +1371,8 @@ model to get started
-
-
+
+ %n palabra
@@ -1319,24 +1380,62 @@ model to get started
-
-
+
+ Actualizando
-
-
+
+ + Agregar documentos
-
-
+
+ Seleccione una colección para hacerla disponible al modelo de chat.
+
+ Download
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+HomeView
@@ -1659,123 +1758,127 @@ model to get started
+ Agregar colección
-
-
- ERROR: La base de datos de DocumentosLocales no es válida.
+ ERROR: La base de datos de DocumentosLocales no es válida.
+
+
+
+
+
+
-
-
+
+ No hay colecciones instaladas
-
-
+
+ Instala una colección de documentos locales para comenzar a usar esta
función
-
-
+
+ + Agregar colección de documentos
-
-
+
+ Muestra la vista de agregar modelo
-
-
+
+ Barra de progreso de indexación
-
-
+
+ Muestra el progreso realizado en la indexación
-
-
+
+ ERROR
-
-
+
+ INDEXANDO
-
-
+
+ INCRUSTANDO
-
-
+
+ REQUIERE ACTUALIZACIÓN
-
-
+
+ LISTO
-
-
+
+ INSTALANDO
-
-
+
+ Indexación en progreso
-
-
+
+ Incrustación en progreso
-
-
+
+ Esta colección requiere una actualización después del cambio de versión
-
-
+
+ Reindexación automática al cambiar la carpeta
-
-
+
+ Instalación en progreso
-
-
+
+ %
-
-
+
+ %n archivo
@@ -1783,8 +1886,8 @@ model to get started
-
-
+
+ %n palabra
@@ -1792,33 +1895,33 @@ model to get started
-
-
+
+ Eliminar
-
-
+
+ Reconstruir
-
-
+
+ Reindexar esta carpeta desde cero. Esto es lento y generalmente no es
necesario.
-
-
+
+ Actualizar
-
-
+
+ Actualizar la colección a la nueva versión. Esta es una operación lenta.
@@ -1848,47 +1951,67 @@ model to get started
OpenAI</strong><br> %1
-
+
+
+
+
+
+
+
+
+
+
+
-
+
-
+
-
+ <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2
-
+
-
+ <strong>Modelo Mistral Tiny</strong><br> %1
-
+ <strong>Modelo Mistral Small</strong><br> %1
-
+ <strong>Modelo Mistral Medium</strong><br> %1
-
+
+
+
+
+
+
+
+
+
+
+
@@ -2007,26 +2130,26 @@ model to get started
Indicación utilizada para generar automáticamente nombres de chat.
-
-
+
+ Indicación de seguimiento sugerida
-
-
+
+ Indicación utilizada para generar preguntas de seguimiento sugeridas.
-
-
+
+ Longitud del contexto
-
-
+
+ Número de tokens de entrada y salida que el modelo ve.
@@ -2041,14 +2164,14 @@ model to get started
NOTA: No tiene efecto hasta que recargues el modelo.
-
-
+
+ Temperatura
-
-
+
+ Aleatoriedad de la salida del modelo. Mayor -> más variación.
@@ -2059,14 +2182,14 @@ model to get started
NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles.
-
-
+
+ Top-P
-
-
+
+ Factor de muestreo de núcleo. Menor -> más predecible.
@@ -2090,98 +2213,98 @@ model to get started
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+ Min-P
-
-
+
+ Probabilidad mínima del token. Mayor -> más predecible.
-
-
+
+ Establece la probabilidad relativa mínima para que un token sea
considerado.
-
-
+
+ Top-K
-
-
+
+ Tamaño del grupo de selección para tokens.
-
-
+
+ Solo se elegirán los K tokens más probables.
-
-
+
+ Longitud máxima
-
-
+
+ Longitud máxima de respuesta, en tokens.
-
-
+
+ Tamaño del lote de indicaciones
-
-
+
+ El tamaño del lote utilizado para el procesamiento de indicaciones.
-
-
+
+
-
-
+
+
@@ -2195,38 +2318,38 @@ NOTE: Does not take effect until you reload the model.
RAM.
-
-
+
+ Penalización por repetición
-
-
+
+ Factor de penalización por repetición. Establecer a 1 para desactivar.
-
-
+
+ Tokens de penalización por repetición
-
-
+
+ Número de tokens anteriores utilizados para la penalización.
-
-
+
+ Capas de GPU
-
-
+
+ Número de capas del modelo a cargar en la VRAM.
@@ -2245,108 +2368,108 @@ NOTE: Does not take effect until you reload the model.
ModelsView
-
-
+
+ No hay modelos instalados
-
-
+
+ Instala un modelo para empezar a usar GPT4All
-
-
-
-
+
+
+
+ + Agregar modelo
-
-
+
+ Muestra la vista de agregar modelo
-
-
+
+ Modelos instalados
-
-
+
+ Modelos de chat instalados localmente
-
-
+
+ Archivo del modelo
-
-
+
+ Archivo del modelo a descargar
-
-
+
+ Descripción
-
-
+
+ Descripción del archivo
-
-
+
+ Cancelar
-
-
+
+ Reanudar
-
-
+
+ Detener/reiniciar/iniciar la descarga
-
-
+
+ Eliminar
-
-
+
+ Eliminar modelo del sistema de archivos
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo en línea
@@ -2365,124 +2488,158 @@ NOTE: Does not take effect until you reload the model.
disponible (%2).</strong></font>
-
-
+
+ %1 GB
-
-
+
+ ?
-
-
+
+ Describe un error que ocurrió durante la descarga
-
-
+
+
-
-
+
+
-
-
+
+ Error por hardware incompatible
-
-
+
+ Barra de progreso de descarga
-
-
+
+ Muestra el progreso realizado en la descarga
-
-
+
+ Velocidad de descarga
-
-
+
+ Velocidad de descarga en bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
+
+
+
+
+
+ Si se está calculando el hash del archivo
-
-
+
+ Indicador de ocupado
-
-
+
+ Se muestra cuando se está calculando el hash del archivo
-
-
+
+
+
+
+
+
+
+ ingrese $API_KEY
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ Tamaño del archivo
-
-
+
+ RAM requerida
-
-
+
+ Parámetros
-
-
+
+ Cuantificación
-
-
+
+ Tipo
@@ -2678,9 +2835,8 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
QObject
-
- Predeterminado
+ Predeterminado
diff --git a/gpt4all-chat/translations/gpt4all_it.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts
similarity index 80%
rename from gpt4all-chat/translations/gpt4all_it.ts
rename to gpt4all-chat/translations/gpt4all_it_IT.ts
index 3b09b115..16c2e802 100644
--- a/gpt4all-chat/translations/gpt4all_it.ts
+++ b/gpt4all-chat/translations/gpt4all_it_IT.ts
@@ -79,316 +79,350 @@
AddModelView
-
-
+
+ ← Modelli esistenti
-
-
+
+ Esplora modelli
-
-
+
+ Scopri e scarica i modelli tramite ricerca per parole chiave...
-
-
+
+ Campo di testo per scoprire e filtrare i modelli scaricabili
-
-
+
+ Avvia rilevamento e filtraggio dei modelli
-
-
+
+ Attiva la scoperta e il filtraggio dei modelli
-
-
+
+ Predefinito
-
-
+
+ Mi piace
-
-
+
+ Scaricamenti
-
-
+
+ Recenti
-
-
+
+ Asc
-
-
+
+ Disc
-
-
+
+ Niente
-
-
+
+ Ricerca · %1
-
-
+
+ Ordina per: %1
-
-
+
+ Direzione ordinamento: %1
-
-
+
+ Limite: %1
-
-
+
+ Errore di rete: impossibile recuperare %1
-
-
-
-
+
+
+
+ Indicatore di occupato
-
-
+
+ Visualizzato quando la richiesta dei modelli è in corso
-
-
+
+ File del modello
-
-
+
+ File del modello da scaricare
-
-
+
+ Descrizione
-
-
+
+ Descrizione del file
-
-
+
+ Annulla
-
-
+
+ Riprendi
-
-
+
+ Scarica
-
-
+
+ Arresta/riavvia/avvia il download
-
-
+
+ Rimuovi
-
-
+
+ Rimuovi il modello dal sistema dei file
-
-
-
-
+
+
+
+ Installa
-
-
+
+ Installa il modello online
-
-
+
+ <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font>
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
-
-
+
+
+
+
-
-
+
+ Descrive un errore che si è verificato durante lo scaricamento
-
-
+
+ <strong><font size="1"><a href="#error">Errore</a></strong></font>
-
-
+
+ Errore per hardware incompatibile
-
-
+
+ barra di avanzamento dello scaricamento
-
-
+
+ Mostra lo stato di avanzamento dello scaricamento
-
-
+
+ Velocità di scaricamento
-
-
+
+ Velocità di scaricamento in byte/kilobyte/megabyte al secondo
-
-
+
+ Calcolo in corso...
-
-
+
+
+
+
+
+ Se viene calcolato l'hash del file
-
-
+
+ Visualizzato durante il calcolo dell'hash del file
-
-
+
+ Inserire $API_KEY
-
-
+
+ Dimensione del file
-
-
+
+ RAM richiesta
-
-
+
+ Parametri
-
-
+
+ Quant
-
-
+
+ Tipo
@@ -456,195 +490,243 @@
La combinazione di colori dell'applicazione.
-
-
+
+ Scuro
-
-
+
+ Chiaro
-
-
+
+ Scuro Legacy
-
-
+
+ Dimensioni del Font
-
-
+
+ La dimensione del testo nell'applicazione.
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ Dispositivo
-
-
- Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal.
+ Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal.
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+ Modello predefinito
-
-
+
+ Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale.
-
-
+
+ Modalità suggerimento
-
-
+
+ Genera domande di approfondimento suggerite alla fine delle risposte.
-
-
+
+ Quando chatti con LocalDocs
-
-
+
+ Quando possibile
-
-
+
+ Mai
-
-
+
+ Percorso di scarico
-
-
+
+ Dove archiviare i modelli locali e il database LocalDocs.
-
-
+
+ Esplora
-
-
+
+ Scegli dove salvare i file del modello
-
-
+
+ Abilita Datalake
-
-
+
+ Invia chat e commenti al Datalake open source GPT4All.
-
-
+
+ Avanzate
-
-
+
+ Thread della CPUTread CPU
-
-
+
+ Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento.
-
-
+
+ Salva il contesto della chat
-
-
+
+ Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat.
-
-
+
+ Abilita server locale
-
-
+
+ Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse.
-
-
+
+ Porta del server API
-
-
+
+ La porta da utilizzare per il server locale. Richiede il riavvio.
-
-
+
+ Controlla gli aggiornamenti
-
-
+
+ Verifica manualmente la presenza di un aggiornamento a GPT4All.
-
-
+
+ Aggiornamenti
@@ -663,6 +745,19 @@
Chatta del server
+
+ ChatAPIWorker
+
+
+
+
+
+
+
+
+
+
+ChatDrawer
@@ -871,9 +966,9 @@
-
+
-
+
@@ -890,192 +985,192 @@
aggiungi raccolte di documenti alla chat
-
-
+
+ Carica il modello predefinito
-
-
+
+ Carica il modello predefinito che può essere modificato nelle impostazioni
-
-
+
+ Nessun modello installato
-
-
+
+ GPT4All richiede l'installazione di almeno un
modello per iniziare
-
-
+
+ Installa un modello
-
-
+
+ Mostra la vista aggiungi modello
-
-
+
+ Conversazione con il modello
-
-
+
+ coppie prompt/risposta dalla conversazione
-
-
+
+
-
-
+
+ Tu
-
-
+
+ ricalcolo contesto ...
-
-
+
+ risposta interrotta ...
-
-
+
+ elaborazione ...
-
-
+
+ generazione risposta ...
-
-
+
+ generarzione domande ...
-
-
-
-
+
+
+
+ Copia
-
-
+
+ Copia messaggio
-
-
+
+ Disabilita Markdown
-
-
+
+ Abilita Markdown
-
-
+
+ Mi piace
-
-
+
+ Dà un mi piace alla risposta
-
-
+
+ Non mi piace
-
-
+
+ Apre la finestra di dialogo "Non mi piace"
-
-
+
+ %1 Fonti
-
-
+
+ Seguiti suggeriti
-
-
+
+ Cancella e ripristina la sessione di chat
-
-
+
+ Copia la sessione di chat negli appunti
-
-
+
+ Riesegui l'ultima risposta della chat
-
-
+
+ Interrompi la generazione
-
-
+
+ Arresta la generazione della risposta corrente
-
-
+
+ Ricarica il modello
@@ -1087,9 +1182,9 @@ modello per iniziare
-
+
-
+ Ricarica · %1
@@ -1100,68 +1195,68 @@ modello per iniziare
Caricamento · %1
-
-
+
+ Carica · %1 (predefinito) →
-
-
+
+ recupero documenti locali: %1 ...
-
-
+
+ ricerca in documenti locali: %1 ...
-
-
+
+ Manda un messaggio...
-
-
+
+ Carica un modello per continuare...
-
-
+
+ Invia messaggi/prompt al modello
-
-
+
+ Taglia
-
-
+
+ Incolla
-
-
+
+ Seleziona tutto
-
-
+
+ Invia messaggio
-
-
+
+ Invia il messaggio/prompt contenuto nel campo di testo al modello
@@ -1169,14 +1264,14 @@ modello per iniziare
CollectionsDrawer
-
-
+
+ Attenzione: la ricerca nelle raccolte durante l'indicizzazione può restituire risultati incompleti
-
-
+
+ %n file
@@ -1184,8 +1279,8 @@ modello per iniziare
-
-
+
+
@@ -1193,24 +1288,62 @@ modello per iniziare
-
-
+
+ In aggiornamento
-
-
+
+ + Aggiungi documenti
-
-
+
+ Seleziona una raccolta per renderla disponibile al modello in chat.
+
+ Download
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+HomeView
@@ -1479,122 +1612,126 @@ modello per iniziare
+ Aggiungi raccolta
-
-
- ERRORE: il database di LocalDocs non è valido.
+ ERRORE: il database di LocalDocs non è valido.
-
-
+
+
+
+
+
+
+
+ Nessuna raccolta installata
-
-
+
+ Installa una raccolta di documenti locali per iniziare a utilizzare questa funzionalità
-
-
+
+ + Aggiungi raccolta di documenti
-
-
+
+ Mostra la vista aggiungi modello
-
-
+
+ Barra di avanzamento dell'indicizzazione
-
-
+
+ Mostra lo stato di avanzamento dell'indicizzazione
-
-
+
+ ERRORE
-
-
+
+ INDICIZZAZIONE
-
-
+
+ INCORPORAMENTO
-
-
+
+ RICHIEDE AGGIORNAMENTO
-
-
+
+ PRONTO
-
-
+
+ INSTALLAZIONE
-
-
+
+ Indicizzazione in corso
-
-
+
+ Incorporamento in corso
-
-
+
+ Questa raccolta richiede un aggiornamento dopo il cambio di versione
-
-
+
+ Reindicizza automaticamente in caso di modifiche alla cartella
-
-
+
+ Installazione in corso
-
-
+
+ %
-
-
+
+ %n file
@@ -1602,8 +1739,8 @@ modello per iniziare
-
-
+
+ %n parola
@@ -1611,32 +1748,32 @@ modello per iniziare
-
-
+
+ Rimuovi
-
-
+
+ Ricostruisci
-
-
+
+ Reindicizzare questa cartella da zero. Lento e di solito non necessario.
-
-
+
+ Aggiorna
-
-
+
+ Aggiorna la raccolta alla nuova versione. Questa è un'operazione lenta.
@@ -1644,47 +1781,67 @@ modello per iniziare
ModelList
-
+ <ul><li>Richiede una chiave API OpenAI personale.</li><li>ATTENZIONE: invierà le tue chat a OpenAI!</li><li>La tua chiave API verrà archiviata su disco</li><li> Verrà utilizzato solo per comunicare con OpenAI</li><li>Puoi richiedere una chiave API <a href="https://platform.openai.com/account/api-keys">qui.</a> </li>
-
+
-
+
-
+
-
+
-
+
-
+ <br><br><i>* Anche se paghi OpenAI per ChatGPT-4 questo non garantisce l'accesso alla chiave API. Contatta OpenAI per maggiori informazioni.
-
+
+
+
+
+
+
+
+
+
+
+ <ul><li>Richiede una chiave API Mistral personale.</li><li>ATTENZIONE: invierà le tue chat a Mistral!</li><li>La tua chiave API verrà archiviata su disco</li><li> Verrà utilizzato solo per comunicare con Mistral</li><li>Puoi richiedere una chiave API <a href="https://console.mistral.ai/user/api-keys">qui</a>. </li>
-
+
+
+
+
+
+
+
+
+
+
+ <strong>Creato da %1.</strong><br><ul><li>Pubblicato il %2.<li>Questo modello ha %3 Mi piace.<li>Questo modello ha %4 download.<li>Altro informazioni possono essere trovate <a href="https://huggingface.co/%5">qui.</a></ul>
@@ -1770,32 +1927,32 @@ modello per iniziare
Prompt utilizzato per generare automaticamente nomi di chat.
-
-
+
+ Prompt di proseguimento suggerito
-
-
+
+ Prompt utilizzato per generare domande di proseguimento suggerite.
-
-
+
+ Lunghezza del contesto
-
-
+
+ Numero di token di input e output visualizzati dal modello.
-
-
+
+
@@ -1804,152 +1961,152 @@ L'utilizzo di un contesto maggiore rispetto a quello su cui è stato addest
NOTA: non ha effetto finché non si ricarica il modello.
-
-
+
+ Temperatura
-
-
+
+ Casualità dell'uscita del modello. Più alto -> più variazione.
-
-
+
+ La temperatura aumenta le possibilità di scegliere token meno probabili.
NOTA: una temperatura più elevata offre risultati più creativi ma meno prevedibili.
-
-
+
+
-
-
+
+ Fattore di campionamento del nucleo. Inferiore -> più prevedibile.
-
-
+
+ Possono essere scelti solo i token più probabili fino ad una probabilità totale di top_p.
NOTA: impedisce la scelta di token altamente improbabili.
-
-
+
+
-
-
+
+ Probabilità minima del token. Più alto -> più prevedibile.
-
-
+
+ Imposta la probabilità relativa minima che un token venga considerato.
-
-
+
+
-
-
+
+ Dimensione del pool di selezione per i token.
-
-
+
+ Solo i token Top-K più probabili verranno scelti.
-
-
+
+ Lunghezza massima
-
-
+
+ Lunghezza massima della risposta, in token.
-
-
+
+ Dimensioni del lotto di prompt
-
-
+
+ La dimensione del lotto usata per l'elaborazione dei prompt.
-
-
+
+ Quantità di token del prompt da elaborare contemporaneamente.
NOTA: valori più alti possono velocizzare la lettura dei prompt ma utilizzeranno più RAM.
-
-
+
+ Penalità di ripetizione
-
-
+
+ Fattore di penalità di ripetizione. Impostare su 1 per disabilitare.
-
-
+
+ Token di penalità ripetizione
-
-
+
+ Numero di token precedenti utilizzati per la penalità.
-
-
+
+ Livelli GPU
-
-
+
+ Numero di livelli del modello da caricare nella VRAM.
-
-
+
+
@@ -1961,230 +2118,264 @@ NOTA: non ha effetto finché non si ricarica il modello.
ModelsView
-
-
+
+ Nessun modello installato
-
-
+
+ Installa un modello per iniziare a utilizzare GPT4All
-
-
-
-
+
+
+
+ + Aggiungi Modello
-
-
+
+ Mostra la vista aggiungi modello
-
-
+
+ Modelli installati
-
-
+
+ Modelli per chat installati localmente
-
-
+
+ File del modello
-
-
+
+ File del modello da scaricare
-
-
+
+ Descrizione
-
-
+
+ Descrizione del file
-
-
+
+ Annulla
-
-
+
+ Riprendi
-
-
+
+ Arresta/riavvia/avvia il download
-
-
+
+ Rimuovi
-
-
+
+ Rimuovi il modello dal sistema dei file
-
-
-
-
+
+
+
+ Installa
-
-
+
+ Installa il modello online
-
-
+
+ <strong><font size="1"><a href="#error">Errore</a></strong></font>
-
-
+
+ <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font>
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+ Descrive un errore che si è verificato durante lo scaricamento
-
-
+
+ Errore per hardware incompatibile
-
-
+
+ barra di avanzamento dello scaricamento
-
-
+
+ Mostra lo stato di avanzamento dello scaricamento
-
-
+
+ Velocità di scaricamento
-
-
+
+ Velocità di scaricamento in byte/kilobyte/megabyte al secondo
-
-
+
+ Calcolo in corso...
-
-
+
+
+
+
+
+ Se viene calcolato l'hash del file
-
-
+
+ Indicatore di occupato
-
-
+
+ Visualizzato durante il calcolo dell'hash del file
-
-
+
+ Inserire $API_KEY
-
-
+
+ Dimensione del file
-
-
+
+ RAM richiesta
-
-
+
+ Parametri
-
-
+
+ Quant
-
-
+
+ Tipo
diff --git a/gpt4all-chat/translations/gpt4all_pt_BR.ts b/gpt4all-chat/translations/gpt4all_pt_BR.ts
index 97d81216..ffd8c52c 100644
--- a/gpt4all-chat/translations/gpt4all_pt_BR.ts
+++ b/gpt4all-chat/translations/gpt4all_pt_BR.ts
@@ -79,316 +79,350 @@
AddModelView
-
-
+
+ ← Meus Modelos
-
-
+
+ Descobrir Modelos
-
-
+
+ Pesquisar modelos...
-
-
+
+ Campo de texto para descobrir e filtrar modelos para download
-
-
+
+ Pesquisar e filtrar modelos
-
-
+
+ Aciona a descoberta e filtragem de modelos
-
-
+
+ Padrão
-
-
+
+ Curtidas
-
-
+
+ Downloads
-
-
+
+ Recentes
-
-
+
+ Asc
-
-
+
+ Desc
-
-
+
+ Nenhum
-
-
+
+ Pesquisando · %1
-
-
+
+ Ordenar por: %1
-
-
+
+ Ordenar diretório: %1
-
-
+
+ Limite: %1
-
-
+
+ Erro de rede: não foi possível obter %1
-
-
-
-
+
+
+
+ Indicador de processamento
-
-
+
+ xibido enquanto os modelos estão sendo carregados
-
-
+
+ Arquivo do modelo
-
-
+
+ Arquivo do modelo a ser baixado
-
-
+
+ Descrição
-
-
+
+ Descrição do arquivo
-
-
+
+ Cancelar
-
-
+
+ Retomar
-
-
+
+ Baixar
-
-
+
+ Parar/reiniciar/iniciar o download
-
-
+
+ Remover
-
-
+
+ Remover modelo do sistema
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo online
-
-
+
+ <strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font>
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
+
+ Mostra informações sobre o erro no download
-
-
+
+ <strong><font size="1"><a href="#error">Erro</a></strong></font>
-
-
+
+ Aviso: Hardware não compatível
-
-
+
+ Progresso do download
-
-
+
+ Mostra o progresso do download
-
-
+
+ Velocidade de download
-
-
+
+ Velocidade de download em bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
+
+
+
+
+
+ Quando o hash do arquivo está sendo calculado
-
-
+
+ Exibido durante o cálculo do hash do arquivo
-
-
+
+ inserir $API_KEY
-
-
+
+ Tamanho do arquivo
-
-
+
+ RAM necessária
-
-
+
+ Parâmetros
-
-
+
+ Quant
-
-
+
+ Tipo
@@ -462,224 +496,242 @@
Esquema de cores.
-
-
+
+ Modo Escuro
-
-
+
+ Modo Claro
-
-
+
+ Modo escuro (legado)
-
-
+
+ Tamanho da Fonte
-
-
+
+ Tamanho do texto.
-
-
+
+ Pequena
-
-
+
+ Médio
-
-
+
+ Grande
-
-
+
+ Idioma e Região
-
-
+
+ Selecione seu idioma e região.
-
-
+
+
+
+
+
+
+
+ Processador
-
-
- Processador usado para gerar texto. (Automático: Vulkan ou Metal).
+ Processador usado para gerar texto. (Automático: Vulkan ou Metal).
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ Modelo Padrão
-
-
+
+ Modelo padrão para novos chats e em caso de falha do modelo principal.
-
-
+
+ Modo de sugestões
-
-
+
+ Sugerir perguntas após as respostas.
-
-
+
+ Ao conversar com o LocalDocs
-
-
+
+ Sempre que possível
-
-
+
+ Nunca
-
-
+
+ Diretório de Download
-
-
+
+ Pasta para modelos e banco de dados do LocalDocs.
-
-
+
+ Procurar
-
-
+
+ Local para armazenar os modelos
-
-
+
+ Habilitar Datalake
-
-
+
+ Contribua para o Datalake de código aberto do GPT4All.
-
-
+
+ Avançado
-
-
+
+ Threads de CPU
-
-
+
+ Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas.
-
-
+
+ Salvar Histórico do Chat
-
-
+
+ Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat).
-
-
+
+ Ativar Servidor Local
-
-
+
+ Ativar servidor local compatível com OpenAI (uso de recursos elevado).
-
-
+
+ Porta da API
-
-
+
+ Porta de acesso ao servidor local. (requer reinicialização).
-
-
+
+ Procurar por Atualizações
-
-
+
+ Verifica se há novas atualizações para o GPT4All.
-
-
+
+ Atualizações
@@ -698,6 +750,19 @@
Chat com o Servidor
+
+ ChatAPIWorker
+
+
+
+
+
+
+
+
+
+
+ChatDrawer
@@ -906,9 +971,9 @@
-
+
-
+ LocalDocs
@@ -925,192 +990,192 @@
Adicionar Coleção de Documentos
-
-
+
+ Carregar o modelo padrão
-
-
+
+ Carrega o modelo padrão (personalizável nas configurações)
-
-
+
+ Nenhum Modelo Instalado
-
-
+
+ O GPT4All precisa de pelo menos um modelo
modelo instalado para funcionar
-
-
+
+ Instalar um Modelo
-
-
+
+ Mostra a visualização para adicionar modelo
-
-
+
+ Conversa com o modelo
-
-
+
+ Pares de pergunta/resposta da conversa
-
-
+
+ GPT4All
-
-
+
+ Você
-
-
+
+ recalculando contexto...
-
-
+
+ resposta interrompida...
-
-
+
+ processando...
-
-
+
+ gerando resposta...
-
-
+
+ gerando perguntas...
-
-
-
-
+
+
+
+ Copiar
-
-
+
+ Copiar Mensagem
-
-
+
+ Desativar markdown
-
-
+
+ Ativar markdown
-
-
+
+ Resposta boa
-
-
+
+ Curte a resposta
-
-
+
+ Resposta ruim
-
-
+
+ Abrir diálogo de joinha para baixo
-
-
+
+ %1 Origens
-
-
+
+ Perguntas relacionadas
-
-
+
+ Apagar e redefinir sessão de chat
-
-
+
+ Copiar histórico da conversa
-
-
+
+ Refazer última resposta
-
-
+
+ Parar de gerar
-
-
+
+ Parar a geração da resposta atual
-
-
+
+ Recarrega modelo
@@ -1122,9 +1187,9 @@ modelo instalado para funcionar
-
+
-
+ Recarregar · %1
@@ -1135,68 +1200,68 @@ modelo instalado para funcionar
Carregando · %1
-
-
+
+ Carregar · %1 (padrão) →
-
-
+
+ Recuperando dados em LocalDocs: %1 ...
-
-
+
+ Buscando em LocalDocs: %1 ...
-
-
+
+ Enviar uma mensagem...
-
-
+
+ Carregue um modelo para continuar...
-
-
+
+ Enviar mensagens/prompts para o modelo
-
-
+
+ Recortar
-
-
+
+ Colar
-
-
+
+ Selecionar tudo
-
-
+
+ Enviar mensagem
-
-
+
+ Envia a mensagem/prompt contida no campo de texto para o modelo
@@ -1204,14 +1269,14 @@ modelo instalado para funcionar
CollectionsDrawer
-
-
+
+ Aviso: pesquisar coleções durante a indexação pode retornar resultados incompletos
-
-
+
+ %n arquivo(s)
@@ -1219,8 +1284,8 @@ modelo instalado para funcionar
-
-
+
+ %n palavra(s)
@@ -1228,24 +1293,62 @@ modelo instalado para funcionar
-
-
+
+ Atualizando
-
-
+
+ + Adicionar Documentos
-
-
+
+ Selecione uma coleção para disponibilizá-la ao modelo de chat.
+
+ Download
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+HomeView
@@ -1513,122 +1616,126 @@ modelo instalado para funcionar
+ Adicionar Coleção
-
-
- ERRO: O banco de dados do LocalDocs não é válido.
+ ERRO: O banco de dados do LocalDocs não é válido.
+
+
+
+
+
+
-
-
+
+ Nenhuma Coleção Instalada
-
-
+
+ Instale uma coleção de documentos locais para começar a usar este recurso
-
-
+
+ + Adicionar Coleção de Documentos
-
-
+
+ Mostra a visualização para adicionar modelo
-
-
+
+ Barra de progresso de indexação
-
-
+
+ Mostra o progresso da indexação
-
-
+
+ ERRO
-
-
+
+ INDEXANDO
-
-
+
+ INCORPORANDO
-
-
+
+ REQUER ATUALIZAÇÃO
-
-
+
+ PRONTO
-
-
+
+ INSTALANDO
-
-
+
+ Indexação em andamento
-
-
+
+ Incorporação em andamento
-
-
+
+ Esta coleção requer uma atualização após a mudança de versão
-
-
+
+ Reindexa automaticamente após alterações na pasta
-
-
+
+ Instalação em andamento
-
-
+
+ %
-
-
+
+ %n arquivo(s)
@@ -1636,8 +1743,8 @@ modelo instalado para funcionar
-
-
+
+ %n palavra(s)
@@ -1645,32 +1752,32 @@ modelo instalado para funcionar
-
-
+
+ Remover
-
-
+
+ Reconstruir
-
-
+
+ Reindexar esta pasta do zero. Esta operação é muito lenta e geralmente não é necessária.
-
-
+
+ Atualizar
-
-
+
+ Atualizar a coleção para a nova versão. Esta operação pode demorar.
@@ -1678,47 +1785,67 @@ modelo instalado para funcionar
ModelList
-
+ <ul><li>É necessária uma chave de API da OpenAI.</li><li>AVISO: Seus chats serão enviados para a OpenAI!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a OpenAI</li><li>Você pode solicitar uma chave de API <a href="https://platform.openai.com/account/api-keys">aqui.</a></li>
-
+ <strong>Modelo ChatGPT GPT-3.5 Turbo da OpenAI</strong><br> %1
-
+ <strong>Modelo ChatGPT GPT-4 da OpenAI</strong><br> %1 %2
-
+ <strong>Modelo Mistral Tiny</strong><br> %1
-
+ <strong>Modelo Mistral Small</strong><br> %1
-
+ <strong>Modelo Mistral Medium</strong><br> %1
-
+ <br><br><i>* Mesmo que você pague pelo ChatGPT-4 da OpenAI, isso não garante acesso à chave de API. Contate a OpenAI para mais informações.
-
+
+
+
+
+
+
+
+
+
+
+ <ul><li>É necessária uma chave de API da Mistral.</li><li>AVISO: Seus chats serão enviados para a Mistral!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a Mistral</li><li>Você pode solicitar uma chave de API <a href="https://console.mistral.ai/user/api-keys">aqui</a>.</li>
-
+
+
+
+
+
+
+
+
+
+
+ <strong>Criado por %1.</strong><br><ul><li>Publicado em %2.<li>Este modelo tem %3 curtidas.<li>Este modelo tem %4 downloads.<li>Mais informações podem ser encontradas <a href="https://huggingface.co/%5">aqui.</a></ul>
@@ -1804,32 +1931,32 @@ modelo instalado para funcionar
Prompt usado para gerar automaticamente nomes de chats.
-
-
+
+ Prompt de Sugestão de Acompanhamento
-
-
+
+ Prompt usado para gerar sugestões de perguntas.
-
-
+
+ Tamanho do Contexto
-
-
+
+ Tamanho da Janela de Contexto.
-
-
+
+
@@ -1838,152 +1965,152 @@ Usar mais contexto do que o modelo foi treinado pode gerar resultados ruins.
Obs.: Só entrará em vigor após recarregar o modelo.
-
-
+
+ Temperatura
-
-
+
+ Aleatoriedade das respostas. Quanto maior, mais variadas.
-
-
+
+ Aumenta a chance de escolher tokens menos prováveis.
Obs.: Uma temperatura mais alta gera resultados mais criativos, mas menos previsíveis.
-
-
+
+ Top-P
-
-
+
+ Amostragem por núcleo. Menor valor, respostas mais previsíveis.
-
-
+
+ Apenas tokens com probabilidade total até o valor de top_p serão escolhidos.
Obs.: Evita tokens muito improváveis.
-
-
+
+ Min-P
-
-
+
+ Probabilidade mínima do token. Quanto maior -> mais previsível.
-
-
+
+ Define a probabilidade relativa mínima para um token ser considerado.
-
-
+
+ Top-K
-
-
+
+ Número de tokens considerados na amostragem.
-
-
+
+ Serão escolhidos apenas os K tokens mais prováveis.
-
-
+
+ Comprimento Máximo
-
-
+
+ Comprimento máximo da resposta, em tokens.
-
-
+
+ Tamanho do Lote de Processamento
-
-
+
+ Tokens processados por lote.
-
-
+
+ Quantidade de tokens de prompt para processar de uma vez.
OBS.: Valores mais altos podem acelerar a leitura dos prompts, mas usarão mais RAM.
-
-
+
+ Penalidade de Repetição
-
-
+
+ Penalidade de Repetição (1 para desativar).
-
-
+
+ Tokens para penalizar repetição
-
-
+
+ Número de tokens anteriores usados para penalidade.
-
-
+
+ Camadas na GPU
-
-
+
+ Camadas Carregadas na GPU.
-
-
+
+
@@ -1995,230 +2122,264 @@ Obs.: Só entrará em vigor após recarregar o modelo.
ModelsView
-
-
+
+ Nenhum Modelo Instalado
-
-
+
+ Instale um modelo para começar a usar o GPT4All
-
-
-
-
+
+
+
+ + Adicionar Modelo
-
-
+
+ Mostra a visualização para adicionar modelo
-
-
+
+ Modelos Instalados
-
-
+
+ Modelos de chat instalados localmente
-
-
+
+ Arquivo do modelo
-
-
+
+ Arquivo do modelo a ser baixado
-
-
+
+ Descrição
-
-
+
+ Descrição do arquivo
-
-
+
+ Cancelar
-
-
+
+ Retomar
-
-
+
+ Parar/reiniciar/iniciar o download
-
-
+
+ Remover
-
-
+
+ Remover modelo do sistema de arquivos
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo online
-
-
+
+ <strong><font size="1"><a href="#error">Erro</a></strong></font>
-
-
+
+ <strong><font size="2">AVISO: Não recomendado para seu hardware. O modelo requer mais memória (%1 GB) do que seu sistema tem disponível (%2).</strong></font>
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ %1 GB
-
-
+
+ ?
-
-
+
+ Descreve um erro que ocorreu durante o download
-
-
+
+ Erro para hardware incompatível
-
-
+
+ Barra de progresso do download
-
-
+
+ Mostra o progresso do download
-
-
+
+ Velocidade de download
-
-
+
+ Velocidade de download em bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
+
+
+
+
+
+ Se o hash do arquivo está sendo calculado
-
-
+
+ Indicador de ocupado
-
-
+
+ Exibido quando o hash do arquivo está sendo calculado
-
-
+
+ inserir $API_KEY
-
-
+
+ Tamanho do arquivo
-
-
+
+ RAM necessária
-
-
+
+ Parâmetros
-
-
+
+ Quant
-
-
+
+ Tipo
@@ -2384,9 +2545,8 @@ OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake
QObject
-
- Padrão
+ Padrão
diff --git a/gpt4all-chat/translations/gpt4all_ro_RO.ts b/gpt4all-chat/translations/gpt4all_ro_RO.ts
index 7c14a72a..0137cfc9 100644
--- a/gpt4all-chat/translations/gpt4all_ro_RO.ts
+++ b/gpt4all-chat/translations/gpt4all_ro_RO.ts
@@ -1,572 +1,474 @@
-
-
- AddCollectionView
-
-
-
-
- ← Colecţiile curente
-
-
-
-
-
- Adauga o Colecţie de documente
-
-
-
-
-
+
+
+
+ <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+
+
+
+
+
+ <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help.
+
+
+
+
+
+ Connection to datalake failed.
+ Conectarea la DataLake a eşuat.
+
+
+
+
+ Saving chats.
+ Se salvează conversaţiile.
+
+
+
+
+ Network dialog
+ Dialogul despre reţea
+
+
+
+
+ opt-in to share feedback/conversations
+ acceptă partajarea (share) de comentarii/conversaţii
+
+
+
+
+ Home view
+ Secţiunea de început
+
+
+
+
+ Home view of application
+ Secţiunea de început a programului
+
+
+
+
+ Home
+ Prima pagină
+
+
+
+
+ Chat view
+ Secţiunea conversaţiilor
+
+
+
+
+ Chat view to interact with models
+ Secţiunea de chat pentru interacţiune cu modele
+
+
+
+
+ Chats
+ Conversaţii/Chat-uri
+
+
+
+
+
+
+ Models
+ Modele
+
+
+
+
+ Models view for installed models
+ Secţiunea modelelor instalate
+
+
+
+
+
+
+ LocalDocs
+ LocalDocs/Documente Locale
+
+
+
+
+ LocalDocs view to configure and use local docs
+ Secţiunea LocalDocs de configurare şi folosire a documentelor locale
+
+
+
+
+
+
+ Settings
+ Configurare
+
+
+
+
+ Settings view for application configuration
+ Secţiunea de configurare a programului
+
+
+
+
+ The datalake is enabled
+ DataLake: ACTIV
+
+
+
+
+ Using a network model
+ Se foloseşte un model pe reţea
+
+
+
+
+ Server mode is enabled
+ Modul Server: ACTIV
+
+
+
+
+ Installed models
+ Modele instalate
+
+
+
+
+ View of installed models
+ Secţiunea modelelor instalate
+
+
+
diff --git a/gpt4all-chat/translations/gpt4all_zh_CN.ts b/gpt4all-chat/translations/gpt4all_zh_CN.ts
index 743a3289..23f60492 100644
--- a/gpt4all-chat/translations/gpt4all_zh_CN.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_CN.ts
@@ -79,26 +79,26 @@
AddModelView
-
-
+
+ ← Existing Models← 存在的模型
-
-
+
+ Explore Models发现模型
-
-
+
+ Discover and download models by keyword search...通过关键词查找并下载模型 ...
-
-
+
+ Text field for discovering and filtering downloadable models用于发现和筛选可下载模型的文本字段
@@ -107,38 +107,38 @@
搜索中
-
-
+
+ Initiate model discovery and filtering启动模型发现和过滤
-
-
+
+ Triggers discovery and filtering of models触发模型的发现和筛选
-
-
+
+ Default默认
-
-
+
+ Likes喜欢
-
-
+
+ Downloads下载
-
-
+
+ Recent近期
@@ -147,14 +147,14 @@
排序:
-
-
+
+ Asc升序
-
-
+
+ Desc倒序
@@ -163,8 +163,8 @@
排序目录:
-
-
+
+ None无
@@ -177,146 +177,176 @@
网络问题:无法访问 http://gpt4all.io/models/models3.json
-
-
+
+ Searching · %1搜索中 · %1
-
-
+
+ Sort by: %1排序: %1
-
-
+
+ Sort dir: %1排序目录: %1
-
-
+
+ Limit: %1数量: %1
-
-
+
+ Network error: could not retrieve %1网络错误:无法检索 %1
-
-
-
-
+
+
+
+ Busy indicator繁忙程度
-
-
+
+ Displayed when the models request is ongoing在模型请求进行中时显示
-
-
+
+ Model file模型文件
-
-
+
+ Model file to be downloaded待下载模型
-
-
+
+ Description描述
-
-
+
+ File description文件描述
-
-
+
+ Cancel取消
-
-
+
+ Resume继续
-
-
+
+ Download下载
-
-
+
+ Stop/restart/start the download停止/重启/开始下载
-
-
+
+ Remove删除
-
-
+
+ Remove model from filesystem从系统中删除模型
-
-
-
-
+
+
+
+ Install安装
-
-
+
+ Install online model安装在线模型
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">错误</a></strong></font>
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">警告: 你的设备硬件不推荐 ,模型需要的内存 (%1 GB)比你的系统还要多 (%2).</strong></font>
-
-
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+
+ ERROR: $BASE_URL is empty.
+
+
+
+
+
+ enter $BASE_URL
+
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+
+ enter $MODEL_NAME
+
+
+
+
+ %1 GB%1 GB
-
-
-
-
+
+
+
+ ??
@@ -325,8 +355,8 @@
<a href="#error">错误</a>
-
-
+
+ Describes an error that occurred when downloading描述下载过程中发生的错误
@@ -343,70 +373,74 @@
你的系统需要 (
-
-
+
+ Error for incompatible hardware硬件不兼容的错误
-
-
+
+ Download progressBar下载进度
-
-
+
+ Shows the progress made in the download显示下载进度
-
-
+
+ Download speed下载速度
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second下载速度 b/kb/mb /s
-
-
+
+ Calculating...计算中
-
-
+
+
+
+
+
+ Whether the file hash is being calculated是否正在计算文件哈希
-
-
+
+ Displayed when the file hash is being calculated在计算文件哈希时显示
-
-
+
+ enter $API_KEY输入$API_KEY
-
-
+
+ File size文件大小
-
-
+
+ RAM requiredRAM 需要
@@ -415,20 +449,20 @@
GB
-
-
+
+ Parameters参数
-
-
+
+ Quant量化
-
-
+
+ Type类型
@@ -499,224 +533,242 @@
应用的主题颜色
-
-
+
+ Dark深色
-
-
+
+ Light亮色
-
-
+
+ LegacyDarkLegacyDark
-
-
+
+ Font Size字体大小
-
-
+
+ The size of text in the application.应用中的文本大小。
-
-
+
+ Small小
-
-
+
+ Medium中
-
-
+
+ Large大
-
-
+
+ Language and Locale语言和本地化
-
-
+
+ The language and locale you wish to use.你想使用的语言
-
-
+
+
+ System Locale
+
+
+
+
+ Device设备
-
- The compute device used for text generation. "Auto" uses Vulkan or Metal.
- 用于文本生成的计算设备. "自动" 使用 Vulkan or Metal.
+ 用于文本生成的计算设备. "自动" 使用 Vulkan or Metal.
-
-
+
+
+ The compute device used for text generation.
+
+
+
+
+
+
+
+ Application default
+
+
+
+
+ Default Model默认模型
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.新聊天的首选模式。也用作本地服务器回退。
-
-
+
+ Suggestion Mode建议模式
-
-
+
+ Generate suggested follow-up questions at the end of responses.在答复结束时生成建议的后续问题。
-
-
+
+ When chatting with LocalDocs本地文档检索
-
-
+
+ Whenever possible只要有可能
-
-
+
+ Never从不
-
-
+
+ Download Path下载目录
-
-
+
+ Where to store local models and the LocalDocs database.本地模型和本地文档数据库存储目录
-
-
+
+ Browse查看
-
-
+
+ Choose where to save model files模型下载目录
-
-
+
+ Enable Datalake开启数据湖
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.发送对话和反馈给GPT4All 的开源数据湖。
-
-
+
+ Advanced高级
-
-
+
+ CPU ThreadsCPU线程
-
-
+
+ The number of CPU threads used for inference and embedding.用于推理和嵌入的CPU线程数
-
-
+
+ Save Chat Context保存对话上下文
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.保存模型's 状态以提供更快加载速度. 警告: 需用 ~2GB 每个对话.
-
-
+
+ Enable Local Server开启本地服务
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.将OpenAI兼容服务器暴露给本地主机。警告:导致资源使用量增加。
-
-
+
+ API Server PortAPI 服务端口
-
-
+
+ The port to use for the local server. Requires restart.使用本地服务的端口,需要重启
-
-
+
+ Check For Updates检查更新
-
-
+
+ Manually check for an update to GPT4All.手动检查更新
-
-
+
+ Updates更新
@@ -743,6 +795,19 @@
响应:
+
+ ChatAPIWorker
+
+
+ ERROR: Network error occurred while connecting to the API server
+
+
+
+
+ ChatAPIWorker::handleFinished got HTTP Error %1 %2
+
+
+ChatDrawer
@@ -971,9 +1036,9 @@
-
+
-
+ LocalDocs本地文档
@@ -998,63 +1063,63 @@
(默认) →
-
-
+
+ Load the default model载入默认模型
-
-
+
+ Loads the default model which can be changed in settings加载默认模型,可以在设置中更改
-
-
+
+ No Model Installed没有下载模型
-
-
+
+ GPT4All requires that you install at least one
model to get startedGPT4All要求您至少安装一个模型才能开始
-
-
+
+ Install a Model下载模型
-
-
+
+ Shows the add model view查看添加的模型
-
-
+
+ Conversation with the model使用此模型对话
-
-
+
+ prompt / response pairs from the conversation对话中的提示/响应对
-
-
+
+ GPT4AllGPT4All
-
-
+
+ You您
@@ -1067,14 +1132,14 @@ model to get started
模型在思考
-
-
+
+ recalculating context ...重新生成上下文...
-
-
+
+ response stopped ...响应停止...
@@ -1087,118 +1152,118 @@ model to get started
检索本地文档:
-
-
+
+ processing ...处理中
-
-
+
+ generating response ...响应中...
-
-
+
+ generating questions ...生成响应
-
-
-
-
+
+
+
+ Copy复制
-
-
+
+ Copy Message复制内容
-
-
+
+ Disable markdown不允许markdown
-
-
+
+ Enable markdown允许markdown
-
-
+
+ Thumbs up点赞
-
-
+
+ Gives a thumbs up to the response点赞响应
-
-
+
+ Thumbs down点踩
-
-
+
+ Opens thumbs down dialog打开点踩对话框
-
-
+
+ %1 Sources%1 资源
-
-
+
+ Suggested follow-ups建议的后续行动
-
-
+
+ Erase and reset chat session擦除并重置聊天会话
-
-
+
+ Copy chat session to clipboard复制对话到剪切板
-
-
+
+ Redo last chat response重新生成上个响应
-
-
+
+ Stop generating停止生成
-
-
+
+ Stop the current response generation停止当前响应
-
-
+
+ Reloads the model重载模型
@@ -1210,9 +1275,9 @@ model to get started
-
+
-
+ Reload · %1重载 · %1
@@ -1223,68 +1288,68 @@ model to get started
载入中 · %1
-
-
+
+ Load · %1 (default) →载入 · %1 (默认) →
-
-
+
+ retrieving localdocs: %1 ...检索本地文档: %1 ...
-
-
+
+ searching localdocs: %1 ...搜索本地文档: %1 ...
-
-
+
+ Send a message...发送消息...
-
-
+
+ Load a model to continue...选择模型并继续
-
-
+
+ Send messages/prompts to the model发送消息/提示词给模型
-
-
+
+ Cut剪切
-
-
+
+ Paste粘贴
-
-
+
+ Select All全选
-
-
+
+ Send message发送消息
-
-
+
+ Sends the message/prompt contained in textfield to the model将文本框中包含的消息/提示发送给模型
@@ -1292,46 +1357,84 @@ model to get started
CollectionsDrawer
-
-
+
+ Warning: searching collections while indexing can return incomplete results提示: 索引时搜索集合可能会返回不完整的结果
-
-
+
+ %n file(s)
-
-
+
+ %n word(s)
-
-
+
+ Updating更新中
-
-
+
+ + Add Docs+ 添加文档
-
-
+
+ Select a collection to make it available to the chat model.选择一个集合,使其可用于聊天模型。
+
+ Download
+
+
+ Model "%1" is installed successfully.
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+ ERROR: $BASE_URL is invalid.
+
+
+
+
+ ERROR: Model "%1 (%2)" is conflict.
+
+
+
+
+ Model "%1 (%2)" is installed successfully.
+
+
+
+
+ Model "%1" is removed.
+
+
+HomeView
@@ -1599,162 +1702,166 @@ model to get started
+ 添加集合
-
- ERROR: The LocalDocs database is not valid.
- 错误: 本地文档数据库错误.
+ 错误: 本地文档数据库错误.
+
+
+
+
+ <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however.
+
-
-
+
+ No Collections Installed没有集合
-
-
+
+ Install a collection of local documents to get started using this feature安装一组本地文档以开始使用此功能
-
-
+
+ + Add Doc Collection+ 添加文档集合
-
-
+
+ Shows the add model view查看添加的模型
-
-
+
+ Indexing progressBar索引进度
-
-
+
+ Shows the progress made in the indexing显示索引进度
-
-
+
+ ERROR错误
-
-
+
+ INDEXING索引
-
-
+
+ EMBEDDINGEMBEDDING
-
-
+
+ REQUIRES UPDATE需更新
-
-
+
+ READY准备
-
-
+
+ INSTALLING安装中
-
-
+
+ Indexing in progress构建索引中
-
-
+
+ Embedding in progressEmbedding进度
-
-
+
+ This collection requires an update after version change此集合需要在版本更改后进行更新
-
-
+
+ Automatically reindexes upon changes to the folder在文件夹变动时自动重新索引
-
-
+
+ Installation in progress安装进度
-
-
+
+ %%
-
-
+
+ %n file(s)%n 文件
-
-
+
+ %n word(s)%n 词
-
-
+
+ Remove删除
-
-
+
+ Rebuild重新构建
-
-
+
+ Reindex this folder from scratch. This is slow and usually not needed.从头开始重新索引此文件夹。这个过程较慢,通常情况下不需要。
-
-
+
+ Update更新
-
-
+
+ Update the collection to the new version. This is a slow operation.将集合更新为新版本。这是一个缓慢的操作。
@@ -1762,41 +1869,61 @@ model to get started
ModelList
-
+
+ %1 (%2)
+
+
+
+
+ <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul>
+
+
+
+ <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li><ul><li>需要个人 OpenAI API 密钥。</li><li>警告:将把您的聊天内容发送给 OpenAI!</li><li>您的 API 密钥将存储在磁盘上</li><li>仅用于与 OpenAI 通信</li><li>您可以在此处<a href="https://platform.openai.com/account/api-keys">申请 API 密钥。</a></li>
-
+ <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1<strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1
-
+ <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2<strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2
-
+ <strong>Mistral Tiny model</strong><br> %1<strong>Mistral Tiny model</strong><br> %1
-
+ <strong>Mistral Small model</strong><br> %1<strong>Mistral Small model</strong><br> %1
-
+ <strong>Mistral Medium model</strong><br> %1<strong>Mistral Medium model</strong><br> %1
+
+
+ <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li>
+
+
+
+
+ <strong>Connect to OpenAI-compatible API server</strong><br> %1
+
+ <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br><strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br>
-
+ <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info.<br><br><i>* 即使您为ChatGPT-4向OpenAI付款,这也不能保证API密钥访问。联系OpenAI获取更多信息。
@@ -1805,7 +1932,7 @@ model to get started
<strong>OpenAI's ChatGPT model GPT-4</strong><br>
-
+ <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li><ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li>
@@ -1822,7 +1949,7 @@ model to get started
<strong>Mistral Medium model</strong><br>
-
+ <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul><strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul>
@@ -1913,32 +2040,32 @@ optional image
用于自动生成聊天名称的提示。
-
-
+
+ Suggested FollowUp Prompt建议的后续提示
-
-
+
+ Prompt used to generate suggested follow-up questions.用于生成建议的后续问题的提示。
-
-
+
+ Context Length上下文长度
-
-
+
+ Number of input and output tokens the model sees.模型看到的输入和输出令牌的数量。
-
-
+
+ Maximum combined prompt/response tokens before information is lost.
Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.
@@ -1947,152 +2074,152 @@ NOTE: Does not take effect until you reload the model.
注意:在重新加载模型之前不会生效。
-
-
+
+ Temperature温度
-
-
+
+ Randomness of model output. Higher -> more variation.模型输出的随机性。更高->更多的变化。
-
-
+
+ Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.温度增加了选择不太可能的token的机会。
注:温度越高,输出越有创意,但预测性越低。
-
-
+
+ Top-PTop-P
-
-
+
+ Nucleus Sampling factor. Lower -> more predicatable.核子取样系数。较低->更具可预测性。
-
-
+
+ Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.只能选择总概率高达top_p的最有可能的令牌。
注意:防止选择极不可能的token。
-
-
+
+ Min-PMin-P
-
-
+
+ Minimum token probability. Higher -> more predictable.最小令牌概率。更高 -> 更可预测。
-
-
+
+ Sets the minimum relative probability for a token to be considered.设置被考虑的标记的最小相对概率。
-
-
+
+ Top-KTop-K
-
-
+
+ Size of selection pool for tokens.令牌选择池的大小。
-
-
+
+ Only the top K most likely tokens will be chosen from.仅从最可能的前 K 个标记中选择
-
-
+
+ Max Length最大长度
-
-
+
+ Maximum response length, in tokens.最大响应长度(以令牌为单位)
-
-
+
+ Prompt Batch Size提示词大小
-
-
+
+ The batch size used for prompt processing.用于快速处理的批量大小。
-
-
+
+ Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.一次要处理的提示令牌数量。
注意:较高的值可以加快读取提示,但会使用更多的RAM。
-
-
+
+ Repeat Penalty重复惩罚
-
-
+
+ Repetition penalty factor. Set to 1 to disable.重复处罚系数。设置为1可禁用。
-
-
+
+ Repeat Penalty Tokens重复惩罚数
-
-
+
+ Number of previous tokens used for penalty.用于惩罚的先前令牌数量。
-
-
+
+ GPU LayersGPU 层
-
-
+
+ Number of model layers to load into VRAM.要加载到VRAM中的模型层数。
-
-
+
+ How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model.
Lower values increase CPU load and RAM usage, and make inference slower.
NOTE: Does not take effect until you reload the model.
@@ -2104,132 +2231,162 @@ NOTE: Does not take effect until you reload the model.
ModelsView
-
-
+
+ No Models Installed无模型
-
-
+
+ Install a model to get started using GPT4All安装模型并开始使用
-
-
-
-
+
+
+
+ + Add Model+ 添加模型
-
-
+
+ Shows the add model view查看增加到模型
-
-
+
+ Installed Models已安装的模型
-
-
+
+ Locally installed chat models本地安装的聊天
-
-
+
+ Model file模型文件
-
-
+
+ Model file to be downloaded待下载的模型
-
-
+
+ Description描述
-
-
+
+ File description文件描述
-
-
+
+ Cancel取消
-
-
+
+ Resume继续
-
-
+
+ Stop/restart/start the download停止/重启/开始下载
-
-
+
+ Remove删除
-
-
+
+ Remove model from filesystem从系统中删除模型
-
-
-
-
+
+
+
+ Install按照
-
-
+
+ Install online model安装在线模型
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font><strong><font size="1"><a href="#error">Error</a></strong></font>
-
-
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font><strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
-
-
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+
+ ERROR: $BASE_URL is empty.
+
+
+
+
+
+ enter $BASE_URL
+
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+
+ enter $MODEL_NAME
+
+
+
+
+ %1 GB%1 GB
-
-
+
+ ??
@@ -2238,8 +2395,8 @@ NOTE: Does not take effect until you reload the model.
<a href="#错误">错误</a>
-
-
+
+ Describes an error that occurred when downloading描述下载时发生的错误
@@ -2256,76 +2413,80 @@ NOTE: Does not take effect until you reload the model.
GB) 你的系统需要 (
-
-
+
+ Error for incompatible hardware硬件不兼容的错误
-
-
+
+ Download progressBar下载进度
-
-
+
+ Shows the progress made in the download显示下载进度
-
-
+
+ Download speed下载速度
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second下载速度 b/kb/mb /s
-
-
+
+ Calculating...计算中...
-
-
+
+
+
+
+
+ Whether the file hash is being calculated是否正在计算文件哈希
-
-
+
+ Busy indicator繁忙程度
-
-
+
+ Displayed when the file hash is being calculated在计算文件哈希时显示
-
-
+
+ enter $API_KEY输入 $API_KEY
-
-
+
+ File size文件大小
-
-
+
+ RAM required需要 RAM
@@ -2334,20 +2495,20 @@ NOTE: Does not take effect until you reload the model.
GB
-
-
+
+ Parameters参数
-
-
+
+ Quant量化
-
-
+
+ Type类型
@@ -2513,9 +2674,8 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
QObject
- Default
- 默认
+ 默认
diff --git a/gpt4all-chat/translations/gpt4all_zh_TW.ts b/gpt4all-chat/translations/gpt4all_zh_TW.ts
index e4a90fe3..808a1253 100644
--- a/gpt4all-chat/translations/gpt4all_zh_TW.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_TW.ts
@@ -79,321 +79,375 @@
AddModelView
-
-
+
+ ← Existing Models← 現有模型
-
-
+
+ Explore Models探索模型
-
-
+
+ Discover and download models by keyword search...透過關鍵字搜尋探索並下載模型......
-
-
+
+ Text field for discovering and filtering downloadable models用於探索與過濾可下載模型的文字字段
-
-
+
+ Searching · %1搜尋 · %1
-
-
+
+ Initiate model discovery and filtering探索與過濾模型
-
-
+
+ Triggers discovery and filtering of models觸發探索與過濾模型
-
-
+
+ Default預設
-
-
+
+ Likes讚
-
-
+
+ Downloads下載次數
-
-
+
+ Recent最新
-
-
+
+ Sort by: %1排序依據:%1
-
-
+
+ Asc升序
-
-
+
+ Desc降序
-
-
+
+ Sort dir: %1排序順序:%1
-
-
+
+ None無
-
-
+
+ Limit: %1上限:%1
-
-
+
+
+ Network error: could not retrieve %1
+
+
+
+
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font>
+
+
+
+
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
+
+
+
+
+
+ %1 GB
+
+
+
+
+
+
+
+ ?
+
+
+ Network error: could not retrieve http://gpt4all.io/models/models3.json
- 網路錯誤:無法取得 http://gpt4all.io/models/models3.json
+ 網路錯誤:無法取得 http://gpt4all.io/models/models3.json
-
-
-
-
+
+
+
+ Busy indicator參考自 https://terms.naer.edu.tw忙線指示器
-
-
+
+ Displayed when the models request is ongoing當模型請求正在進行時顯示
-
-
+
+ Model file模型檔案
-
-
+
+ Model file to be downloaded即將下載的模型檔案
-
-
+
+ Description描述
-
-
+
+ File description檔案描述
-
-
+
+ Cancel取消
-
-
+
+ Resume恢復
-
-
+
+ Download下載
-
-
+
+ Stop/restart/start the download停止/重啟/開始下載
-
-
+
+ Remove移除
-
-
+
+ Remove model from filesystem從檔案系統移除模型
-
-
-
-
+
+
+
+ Install安裝
-
-
+
+ Install online model安裝線上模型
-
- <a href="#error">Error</a>
- <a href="#error">錯誤</a>
+ <a href="#error">錯誤</a>
-
-
+
+ Describes an error that occurred when downloading解釋下載時發生的錯誤
-
- <strong><font size="2">WARNING: Not recommended for your hardware.
- <strong><font size="2">警告:不推薦在您的硬體上運作。
+ <strong><font size="2">警告:不推薦在您的硬體上運作。
-
- Model requires more memory (
- 模型需要比較多的記憶體(
+ 模型需要比較多的記憶體(
-
- GB) than your system has available (
- GB),但您的系統記憶體空間不足(
+ GB),但您的系統記憶體空間不足(
-
-
+
+ Error for incompatible hardware錯誤,不相容的硬體
-
-
+
+ Download progressBar下載進度條
-
-
+
+ Shows the progress made in the download顯示下載進度
-
-
+
+ Download speed下載速度
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second下載速度每秒 bytes/kilobytes/megabytes
-
-
+
+ Calculating...計算中......
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculated是否正在計算檔案雜湊
-
-
+
+ Displayed when the file hash is being calculated計算檔案雜湊值時顯示
-
-
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+ enter $API_KEY輸入 $API_KEY
-
-
+
+
+ ERROR: $BASE_URL is empty.
+
+
+
+
+
+ enter $BASE_URL
+
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+
+ enter $MODEL_NAME
+
+
+
+
+ File size檔案大小
-
-
+
+ RAM required所需的記憶體
-
- GB
- GB
+ GB
-
-
+
+ Parameters參數
-
-
+
+ Quant量化
-
-
+
+ Type類型
@@ -465,224 +519,242 @@
應用程式的配色方案。
-
-
+
+ Dark暗色
-
-
+
+ Light亮色
-
-
+
+ LegacyDark傳統暗色
-
-
+
+ Font Size字體大小
-
-
+
+ The size of text in the application.應用程式中的字體大小。
-
-
+
+ Small小
-
-
+
+ Medium中
-
-
+
+ Large大
-
-
+
+ Language and Locale語言與區域設定
-
-
+
+ The language and locale you wish to use.您希望使用的語言與區域設定。
-
-
+
+
+ System Locale
+
+
+
+
+ Device裝置
-
- The compute device used for text generation. "Auto" uses Vulkan or Metal.
- 用於生成文字的計算設備。 「Auto」將自動使用 Vulkan 或 Metal。
+ 用於生成文字的計算設備。 「Auto」將自動使用 Vulkan 或 Metal。
-
-
+
+ Default Model預設模型
-
-
+
+ The preferred model for new chats. Also used as the local server fallback.用於新交談的預設模型。也用於作為本機伺服器後援使用。
-
-
+
+ Suggestion Mode建議模式
-
-
+
+ When chatting with LocalDocs當使用「我的文件」交談時
-
-
+
+ Whenever possible視情況允許
-
-
+
+ Never永不
-
-
+
+ Generate suggested follow-up questions at the end of responses.在回覆末尾生成後續建議的問題。
-
-
+
+
+ The compute device used for text generation.
+
+
+
+
+
+
+
+ Application default
+
+
+
+
+ Download Path下載路徑
-
-
+
+ Where to store local models and the LocalDocs database.儲存本機模型與「我的文件」資料庫的位置。
-
-
+
+ Browse瀏覽
-
-
+
+ Choose where to save model files選擇儲存模型檔案的位置
-
-
+
+ Enable Datalake啟用資料湖泊
-
-
+
+ Send chats and feedback to the GPT4All Open-Source Datalake.將交談與回饋傳送到 GPT4All 開放原始碼資料湖泊。
-
-
+
+ Advanced進階
-
-
+
+ CPU Threads中央處理器(CPU)線程
-
-
+
+ The number of CPU threads used for inference and embedding.用於推理與嵌入的中央處理器線程數。
-
-
+
+ Save Chat Context儲存交談語境
-
-
+
+ Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.將交談模型的狀態儲存到磁碟以加快載入速度。警告:每次交談使用約 2GB。
-
-
+
+ Enable Local Server啟用本機伺服器
-
-
+
+ Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.將 OpenAI 相容伺服器公開給本機。警告:導致資源使用增加。
-
-
+
+ API Server PortAPI 伺服器埠口
-
-
+
+ The port to use for the local server. Requires restart.用於本機伺服器的埠口。需要重新啟動。
-
-
+
+ Check For Updates檢查更新
-
-
+
+ Manually check for an update to GPT4All.手動檢查 GPT4All 的更新。
-
-
+
+ Updates更新
@@ -690,7 +762,7 @@
Chat
-
+ New Chat新的交談
@@ -701,16 +773,25 @@
伺服器交談
-
- Prompt:
- 提示詞:
+ 提示詞:
-
- Response:
- 回覆:
+ 回覆:
+
+
+
+ ChatAPIWorker
+
+
+ ERROR: Network error occurred while connecting to the API server
+
+
+
+
+ ChatAPIWorker::handleFinished got HTTP Error %1 %2
+
@@ -824,16 +905,12 @@
ChatView
-
- <h3>Encountered an error loading model:</h3><br>
- <h3>載入模型時發生錯誤:</h3><br>
+ <h3>載入模型時發生錯誤:</h3><br>
-
- <br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help
- <br><br>模型載入失敗的原因有很多,但最常見的原因包括檔案格式錯誤、下載不完整或損壞、檔案類型錯誤、系統主記憶體不足或模型類型不相容。以下是解決問題的一些建議:<br><ul><li>確保模型檔案具有相容的格式與類型<li>檢查下載資料夾中的模型檔案是否完整<li>您可以找到下載資料夾在設置對話方塊中<li>如果您已旁載入模型,請透過檢查md5sum 確保檔案未損壞<li>在我們的<a href="https://docs.gpt4all.io/ 中了解有關支援哪些模型的更多資訊">GUI 檔案</a><li>查看我們的<a href="https://discord.gg/4M2QFmTt2k">Discord 伺服器</a>尋求協助
+ <br><br>模型載入失敗的原因有很多,但最常見的原因包括檔案格式錯誤、下載不完整或損壞、檔案類型錯誤、系統主記憶體不足或模型類型不相容。以下是解決問題的一些建議:<br><ul><li>確保模型檔案具有相容的格式與類型<li>檢查下載資料夾中的模型檔案是否完整<li>您可以找到下載資料夾在設置對話方塊中<li>如果您已旁載入模型,請透過檢查md5sum 確保檔案未損壞<li>在我們的<a href="https://docs.gpt4all.io/ 中了解有關支援哪些模型的更多資訊">GUI 檔案</a><li>查看我們的<a href="https://discord.gg/4M2QFmTt2k">Discord 伺服器</a>尋求協助
@@ -866,26 +943,8 @@
程式碼已複製到剪貼簿。
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
- Response:
- 回覆:
+ 回覆:
@@ -949,9 +1008,9 @@
-
+
-
+ Reload · %1重新載入 · %1
@@ -962,297 +1021,307 @@
載入中 · %1
-
-
+
+ Load · %1 (default) →載入 · %1 (預設) →
-
-
+
+ The top item is the current model最上面的那項是目前使用的模型
-
-
-
-
+
+
+
+ LocalDocs我的文件
-
-
+
+ Add documents新增文件
-
-
+
+ add collections of documents to the chat將文件集合新增至交談中
-
- Load ·
- 載入 ·
+ 載入 ·
-
- (default) →
- (預設) →
+ (預設) →
-
-
+
+ Load the default model載入預設模型
-
-
+
+ Loads the default model which can be changed in settings預設模型可於設定中變更
-
-
+
+ No Model Installed沒有已安裝的模型
-
-
+
+ GPT4All requires that you install at least one
model to get startedGPT4All 要求您至少安裝一個
模型開始
-
-
+
+ Install a Model安裝一個模型
-
-
+
+ Shows the add model view顯示新增模型視圖
-
-
+
+ Conversation with the model與模型對話
-
-
+
+ prompt / response pairs from the conversation對話中的提示詞 / 回覆組合
-
-
+
+ GPT4AllGPT4All
-
-
+
+ You您
-
- Busy indicator參考自 https://terms.naer.edu.tw
- 忙線指示器
+ 忙線指示器
-
- The model is thinking
- 模型正在思考中
+ 模型正在思考中
-
-
+
+ recalculating context ...重新計算語境中......
-
-
+
+ response stopped ...回覆停止......
-
-
+
+ retrieving localdocs: %1 ...檢索本機文件中:%1 ......
-
-
+
+ searching localdocs: %1 ...搜尋本機文件中:%1 ......
-
-
+
+ processing ...處理中......
-
-
+
+ generating response ...生成回覆......
-
-
-
-
+
+
+ generating questions ...
+
+
+
+
+
+
+ Copy複製
-
-
+
+ Copy Message複製訊息
-
-
+
+ Disable markdown停用 Markdown
-
-
+
+ Enable markdown啟用 Markdown
-
-
+
+ Thumbs up讚
-
-
+
+ Gives a thumbs up to the response對這則回覆比讚
-
-
+
+ Thumbs down倒讚
-
-
+
+ Opens thumbs down dialog開啟倒讚對話視窗
-
-
+
+ %1 Sources%1 來源
-
-
+
+ Suggested follow-ups後續建議
-
-
+
+ Erase and reset chat session刪除並重置交談會話
-
-
+
+ Copy chat session to clipboard複製交談會議到剪貼簿
-
-
+
+ Redo last chat response復原上一個交談回覆
-
-
+
+
+ Stop generating
+
+
+
+
+ Stop the current response generation停止當前回覆生成
-
-
+
+ Reloads the model重新載入模型
-
-
+
+
+ <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help
+
+
+
+
+ Send a message...傳送一則訊息......
-
-
+
+ Load a model to continue...載入模型以繼續......
-
-
+
+ Send messages/prompts to the model向模型傳送訊息/提示詞
-
-
+
+ Cut剪下
-
-
+
+ Paste貼上
-
-
+
+ Select All全選
-
-
+
+ Send message傳送訊息
-
-
+
+ Sends the message/prompt contained in textfield to the model將文字欄位中包含的訊息/提示詞傳送到模型
@@ -1260,46 +1329,84 @@ model to get started
CollectionsDrawer
-
-
+
+ Warning: searching collections while indexing can return incomplete results警告:在索引時搜尋收藏可能會傳回不完整的結果
-
-
+
+ %n file(s)%n 個檔案
-
-
+
+ %n word(s)%n 個字
-
-
+
+ Updating更新中
-
-
+
+ + Add Docs+ 新增文件
-
-
+
+ Select a collection to make it available to the chat model.選擇一個收藏以使其可供交談模型使用。
+
+ Download
+
+
+ Model "%1" is installed successfully.
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+ ERROR: $BASE_URL is invalid.
+
+
+
+
+ ERROR: Model "%1 (%2)" is conflict.
+
+
+
+
+ Model "%1 (%2)" is installed successfully.
+
+
+
+
+ Model "%1" is removed.
+
+
+HomeView
@@ -1369,44 +1476,44 @@ model to get started
從 GPT4All 來的最新消息
-
-
+
+ Release Notes版本資訊
-
-
+
+ Documentation文件
-
-
+
+ DiscordDiscord
-
-
+
+ X (Twitter)X (Twitter)
-
-
+
+ GithubGithub
-
-
+
+ GPT4All.ioGPT4All.io
-
-
+
+ Subscribe to Newsletter訂閱電子報
@@ -1567,162 +1674,166 @@ model to get started
+ 新增收藏
-
- ERROR: The LocalDocs database is not valid.
- 錯誤:「我的文件」資料庫已損壞。
+ 錯誤:「我的文件」資料庫已損壞。
-
-
+
+
+ <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however.
+
+
+
+
+ No Collections Installed沒有已安裝的收藏
-
-
+
+ Install a collection of local documents to get started using this feature安裝本機文件收藏以開始使用此功能
-
-
+
+ + Add Doc Collection+ 新增文件收藏
-
-
+
+ Shows the add model view查看新增的模型視圖
-
-
+
+ Indexing progressBar索引進度條
-
-
+
+ Shows the progress made in the indexing顯示索引進度
-
-
+
+ ERROR錯誤
-
-
+
+ INDEXING索引中
-
-
+
+ EMBEDDING嵌入中
-
-
+
+ REQUIRES UPDATE必須更新
-
-
+
+ READY已就緒
-
-
+
+ INSTALLING安裝中
-
-
+
+ Indexing in progress正在索引
-
-
+
+ Embedding in progress正在嵌入
-
-
+
+ This collection requires an update after version change該收藏需要在版本變更後更新
-
-
+
+ Automatically reindexes upon changes to the folder若資料夾有變動,會自動重新索引
-
-
+
+ Installation in progress正在安裝中
-
-
+
+ %%
-
-
+
+ %n file(s)%n 個檔案
-
-
+
+ %n word(s)%n 個字
-
-
+
+ Remove移除
-
-
+
+ Rebuild重建
-
-
+
+ Reindex this folder from scratch. This is slow and usually not needed.重新索引該資料夾。這將會耗費許多時間並且通常不太需要這樣做。
-
-
+
+ Update更新
-
-
+
+ Update the collection to the new version. This is a slow operation.更新收藏。這將會耗費許多時間。
@@ -1730,47 +1841,67 @@ model to get started
ModelList
-
+
+ %1 (%2)
+
+
+
+
+ <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul>
+
+
+
+ <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li><ul><li>需要個人的 OpenAI API 金鑰。</li><li>警告:這將會傳送您的交談紀錄到 OpenAI</li><li>您的 API 金鑰將被儲存在硬碟上</li><li>它只被用於與 OpenAI 進行通訊</li><li>您可以在<a href="https://platform.openai.com/account/api-keys">此處</a>申請一個 API 金鑰。</li>
-
+ <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1<strong>OpenAI 的 ChatGPT 模型 GPT-3.5 Turbo</strong><br> %1
-
+ <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info.<br><br><i>* 即使您已向 OpenAI 付費購買了 ChatGPT 的 GPT-4 模型使用權,但這也不能保證您能擁有 API 金鑰的使用權限。請聯繫 OpenAI 以查閱更多資訊。
-
+ <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2<strong>OpenAI 的 ChatGPT 模型 GPT-4</strong><br> %1 %2
-
+ <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li><ul><li>需要個人的 Mistral API 金鑰。</li><li>警告:這將會傳送您的交談紀錄到 Mistral!</li><li>您的 API 金鑰將被儲存在硬碟上</li><li>它只被用於與 Mistral 進行通訊</li><li>您可以在<a href="https://console.mistral.ai/user/api-keys">此處</a>申請一個 API 金鑰。</li>
-
+ <strong>Mistral Tiny model</strong><br> %1<strong>Mistral 迷你模型</strong><br> %1
-
+ <strong>Mistral Small model</strong><br> %1<strong>Mistral 小型模型</strong><br> %1
-
+ <strong>Mistral Medium model</strong><br> %1<strong>Mistral 中型模型</strong><br> %1
-
+
+ <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li>
+
+
+
+
+ <strong>Connect to OpenAI-compatible API server</strong><br> %1
+
+
+
+ <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul><strong>建立者:%1。</strong><br><ul><li>發行於:%2。<li>這個模型有 %3 個讚。<li>這個模型有 %4 次下載次數。<li>更多資訊請查閱<a href="https://huggingface.co/%5">此處</a>。</ul>
@@ -1790,65 +1921,63 @@ model to get started
模型設定
-
-
+
+ Clone複製
-
-
+
+ Remove移除
-
-
+
+ Name名稱
-
-
+
+ Model File模型檔案
-
-
+
+ System Prompt系統提示詞
-
-
+
+ Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens.在每個對話的開頭加上前綴。必須包含適當的構建符元(framing tokens)。
-
-
+
+ Prompt Template提示詞模板
-
-
+
+ The template that wraps every prompt.包裝每個提示詞的模板。
-
-
+
+ Must contain the string "%1" to be replaced with the user's input.必須包含要替換為使用者輸入的字串「%1」。
-
- Add
optional image
- 新增
+ 新增
可選圖片
@@ -1864,32 +1993,32 @@ optional image
用於自動生成交談名稱的提示詞。
-
-
+
+ Suggested FollowUp Prompt後續建議提示詞
-
-
+
+ Prompt used to generate suggested follow-up questions.用於生成後續建議問題的提示詞。
-
-
+
+ Context Length語境長度(Context Length)
-
-
+
+ Number of input and output tokens the model sees.模型看見的輸入與輸出的符元數量。
-
-
+
+ Maximum combined prompt/response tokens before information is lost.
Using more context than the model was trained on will yield poor results.
NOTE: Does not take effect until you reload the model.
@@ -1898,152 +2027,152 @@ NOTE: Does not take effect until you reload the model.
注意:重新載入模型後才會生效。
-
-
+
+ Temperature語境溫度(Temperature)
-
-
+
+ Randomness of model output. Higher -> more variation.模型輸出的隨機性。更高 -> 更多變化。
-
-
+
+ Temperature increases the chances of choosing less likely tokens.
NOTE: Higher temperature gives more creative but less predictable outputs.語境溫度會提高選擇不容易出現的符元機率。
注意:較高的語境溫度會生成更多創意,但輸出的可預測性會相對較差。
-
-
+
+ Top-P核心採樣(Top-P)
-
-
+
+ Nucleus Sampling factor. Lower -> more predicatable.核心採樣因子。更低 -> 更可預測。
-
-
+
+ Only the most likely tokens up to a total probability of top_p can be chosen.
NOTE: Prevents choosing highly unlikely tokens.只選擇總機率約為核心採樣,最有可能性的符元。
注意:用於避免選擇不容易出現的符元。
-
-
+
+ Min-P最小符元機率(Min-P)
-
-
+
+ Minimum token probability. Higher -> more predictable.最小符元機率。更高 -> 更可預測。
-
-
+
+ Sets the minimum relative probability for a token to be considered.設定要考慮的符元的最小相對機率。
-
-
+
+ Top-K高頻率採樣機率(Top-K)
-
-
+
+ Size of selection pool for tokens.符元選擇池的大小。
-
-
+
+ Only the top K most likely tokens will be chosen from.只選擇前 K 個最有可能性的符元。
-
-
+
+ Max Length最大長度(Max Length)
-
-
+
+ Maximum response length, in tokens.最大響應長度(以符元為單位)。
-
-
+
+ Prompt Batch Size提示詞批次大小(Prompt Batch Size)
-
-
+
+ The batch size used for prompt processing.用於即時處理的批量大小。
-
-
+
+ Amount of prompt tokens to process at once.
NOTE: Higher values can speed up reading prompts but will use more RAM.一次處理的提示詞符元數量。
注意:較高的值可以加快讀取提示詞的速度,但會使用比較多的記憶體。
-
-
+
+ Repeat Penalty重複處罰(Repeat Penalty)
-
-
+
+ Repetition penalty factor. Set to 1 to disable.重複懲罰因子。設定為 1 以停用。
-
-
+
+ Repeat Penalty Tokens重複懲罰符元(Repeat Penalty Tokens)
-
-
+
+ Number of previous tokens used for penalty.之前用於懲罰的符元數量。
-
-
+
+ GPU Layers圖形處理器負載層(GPU Layers)
-
-
+
+ Number of model layers to load into VRAM.要載入到顯示記憶體中的模型層數。
-
-
+
+ How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model.
Lower values increase CPU load and RAM usage, and make inference slower.
NOTE: Does not take effect until you reload the model.
@@ -2055,237 +2184,285 @@ NOTE: Does not take effect until you reload the model.
ModelsView
-
-
+
+ No Models Installed沒有已安裝的模型
-
-
+
+ Install a model to get started using GPT4All安裝模型以開始使用 GPT4All
-
-
-
-
+
+
+
+ + Add Model+ 新增模型
-
-
+
+ Shows the add model view顯示新增模型視圖
-
-
+
+ Installed Models已安裝的模型
-
-
+
+ Locally installed chat models本機已安裝的交談模型
-
-
+
+ Model file模型檔案
-
-
+
+ Model file to be downloaded即將下載的模型檔案
-
-
+
+ Description描述
-
-
+
+ File description檔案描述
-
-
+
+ Cancel取消
-
-
+
+ Resume恢復
-
-
+
+ Stop/restart/start the download停止/重啟/開始下載
-
-
+
+ Remove移除
-
-
+
+ Remove model from filesystem從檔案系統移除模型
-
-
-
-
+
+
+
+ Install安裝
-
-
+
+ Install online model安裝線上模型
-
-
+
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font>
+
+
+
+
+
+ <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
+
+
+
+
+
+ %1 GB
+
+
+
+
+
+ ?
+
+
+ <a href="#error">Error</a>
- <a href="#error">錯誤</a>
+ <a href="#error">錯誤</a>
-
-
+
+ Describes an error that occurred when downloading解釋下載時發生的錯誤
-
- <strong><font size="2">WARNING: Not recommended for your hardware.
- <strong><font size="2">警告:不推薦在您的硬體上運作。
+ <strong><font size="2">警告:不推薦在您的硬體上運作。
-
- Model requires more memory (
- 模型需要比較多的記憶體(
+ 模型需要比較多的記憶體(
-
- GB) than your system has available (
- GB),但您的系統記憶體空間不足(
+ GB),但您的系統記憶體空間不足(
-
-
+
+ Error for incompatible hardware錯誤,不相容的硬體
-
-
+
+ Download progressBar下載進度條
-
-
+
+ Shows the progress made in the download顯示下載進度
-
-
+
+ Download speed下載速度
-
-
+
+ Download speed in bytes/kilobytes/megabytes per second下載速度每秒 bytes/kilobytes/megabytes
-
-
+
+ Calculating...計算中......
-
-
-
-
+
+
+
+
+
+
+
+ Whether the file hash is being calculated是否正在計算檔案雜湊
-
-
+
+ Busy indicator參考自 https://terms.naer.edu.tw忙線指示器
-
-
+
+ Displayed when the file hash is being calculated計算檔案雜湊值時顯示
-
-
+
+
+ ERROR: $API_KEY is empty.
+
+
+
+
+ enter $API_KEY輸入 $API_KEY
-
-
+
+
+ ERROR: $BASE_URL is empty.
+
+
+
+
+
+ enter $BASE_URL
+
+
+
+
+
+ ERROR: $MODEL_NAME is empty.
+
+
+
+
+
+ enter $MODEL_NAME
+
+
+
+
+ File size檔案大小
-
-
+
+ RAM required所需的記憶體
-
- GB
- GB
+ GB
-
-
+
+ Parameters參數
-
-
+
+ Quant量化
-
-
+
+ Type類型
@@ -2498,36 +2675,32 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
歡迎使用!
-
- ### Release notes
- ### 版本資訊
+ ### 版本資訊
-
- ### Contributors
- ### 貢獻者
+ ### 貢獻者
-
-
+
+ Release notes版本資訊
-
-
+
+ Release notes for this version這個版本的版本資訊
-
-
+
+ ### Opt-ins for anonymous usage analytics and datalake
By enabling these features, you will be able to participate in the democratic process of training a
large language model by contributing data for future model improvements.
@@ -2555,88 +2728,96 @@ model release that uses your data!
Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將被認可為任何使用您的資料的 GPT4All 模型版本的貢獻者!
-
-
+
+ Terms for opt-in計畫規範
-
-
+
+ Describes what will happen when you opt-in解釋當您加入計畫後,會發生什麼事情
-
-
-
-
+
+
+
+ Yes是
-
-
-
-
+
+
+
+ No否
-
-
-
-
+
+
+
+ Opt-in for anonymous usage statistics匿名使用統計計畫
-
-
+
+
+ ### Release notes
+%1### Contributors
+%2
+
+
+
+
+ Allow opt-in for anonymous usage statistics加入匿名使用統計計畫
-
-
+
+ Opt-out for anonymous usage statistics退出匿名使用統計計畫
-
-
+
+ Allow opt-out for anonymous usage statistics終止並退出匿名使用統計計畫
-
-
-
-
+
+
+
+ Opt-in for network資料湖泊計畫
-
-
+
+ Allow opt-in for network加入資料湖泊計畫
-
-
+
+ Opt-out for network退出資料湖泊計畫
-
-
+
+ Allow opt-in anonymous sharing of chats to the GPT4All Datalake開始將交談內容匿名分享到 GPT4All 資料湖泊
-
-
+
+ Allow opt-out anonymous sharing of chats to the GPT4All Datalake終止將交談內容匿名分享到 GPT4All 資料湖泊
@@ -2712,92 +2893,80 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
main
-
- GPT4All v
- GPT4All v
+ GPT4All v
-
-
-
- <h3>Encountered an error starting up:</h3><br>
- <h3>啟動時發生錯誤:</h3><br>
+ <h3>啟動時發生錯誤:</h3><br>
-
- <i>"Incompatible hardware detected."</i>
- <i>「偵測到不相容的硬體」</i>
+ <i>「偵測到不相容的硬體」</i>
-
- <br><br>Unfortunately, your CPU does not meet the minimal requirements to run
- <br><br>糟糕,您的中央處理器不符合運行的最低要求
+ <br><br>糟糕,您的中央處理器不符合運行的最低要求
-
- this program. In particular, it does not support AVX intrinsics which this
- 這個程式。特別是,它不支援 AVX 內在函數,這
+ 這個程式。特別是,它不支援 AVX 內在函數,這
-
- program requires to successfully run a modern large language model.
- 程式需要成功運行現代大型語言模型。
+ 程式需要成功運行現代大型語言模型。
-
- The only solution at this time is to upgrade your hardware to a more modern CPU.
- 此時唯一的解決方案是將硬體升級到更現代的中央處理器。
+ 此時唯一的解決方案是將硬體升級到更現代的中央處理器。
-
- <br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">中文網址造成 Linguist 會發出警告,請無視。
- <br><br>更多資訊請查閱:<a href="https://zh.wikipedia.org/wiki/AVX%E6%8C%87%E4%BB%A4%E9%9B%86">
+ <br><br>更多資訊請查閱:<a href="https://zh.wikipedia.org/wiki/AVX%E6%8C%87%E4%BB%A4%E9%9B%86">
-
- https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>中文網址造成 Linguist 會發出警告,請無視。
- https://zh.wikipedia.org/wiki/AVX%E6%8C%87%E4%BB%A4%E9%9B%86</a>
+ https://zh.wikipedia.org/wiki/AVX%E6%8C%87%E4%BB%A4%E9%9B%86</a>
-
- <i>"Inability to access settings file."</i>
- <i>「無法存取設定檔。」</i>
+ <i>「無法存取設定檔。」</i>
-
- <br><br>Unfortunately, something is preventing the program from accessing
- <br><br>糟糕,有些東西正在阻止程式存取
+ <br><br>糟糕,有些東西正在阻止程式存取
-
- the settings file. This could be caused by incorrect permissions in the local
- 設定檔。這可能是本機權限設定不正確導致的
+ 設定檔。這可能是本機權限設定不正確導致的
-
- app config directory where the settings file is located.
- 設定檔案所在的app config 目錄。
+ 設定檔案所在的app config 目錄。
-
- Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help.
- 請查看我們的<a href="https://discord.gg/4M2QFmTt2k">Discord 伺服器</a>尋求協助。
+ 請查看我們的<a href="https://discord.gg/4M2QFmTt2k">Discord 伺服器</a>尋求協助。
+
+
+
+
+ GPT4All v%1
+
+
+
+
+
+ <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+
+
+
+
+
+ <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help.
+