diff --git a/gpt4all-chat/CMakeLists.txt b/gpt4all-chat/CMakeLists.txt index 4fc4f9c7..52a41ee3 100644 --- a/gpt4all-chat/CMakeLists.txt +++ b/gpt4all-chat/CMakeLists.txt @@ -33,6 +33,7 @@ set(CMAKE_AUTOMOC ON) set(CMAKE_AUTORCC ON) set(CMAKE_CXX_STANDARD_REQUIRED ON) +option(GPT4ALL_TRANSLATIONS OFF "Build with translations") option(GPT4ALL_LOCALHOST OFF "Build installer for localhost repo") option(GPT4ALL_OFFLINE_INSTALLER "Build an offline installer" OFF) option(GPT4ALL_SIGN_INSTALL "Sign installed binaries and installers (requires signing identities)" OFF) @@ -226,9 +227,14 @@ qt_add_qml_module(chat icons/you.svg ) -qt_add_translations(chat - TS_FILES ${CMAKE_SOURCE_DIR}/translations/gpt4all_en.ts -) +if (GPT4ALL_TRANSLATIONS) + qt_add_translations(chat + TS_FILES + ${CMAKE_SOURCE_DIR}/translations/gpt4all_en.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_es_MX.ts + ${CMAKE_SOURCE_DIR}/translations/gpt4all_zh_CN.ts + ) +endif() set_target_properties(chat PROPERTIES WIN32_EXECUTABLE TRUE diff --git a/gpt4all-chat/main.cpp b/gpt4all-chat/main.cpp index 20a1d3fe..e28425fd 100644 --- a/gpt4all-chat/main.cpp +++ b/gpt4all-chat/main.cpp @@ -33,13 +33,18 @@ int main(int argc, char *argv[]) QGuiApplication app(argc, argv); - QTranslator translator; - bool success = translator.load(":/i18n/gpt4all_en.qm"); - Q_ASSERT(success); - app.installTranslator(&translator); + // Set the local and language translation before the qml engine has even been started. This will + // use the default system locale unless the user has explicitly set it to use a different one. + MySettings::globalInstance()->setLanguageAndLocale(); QQmlApplicationEngine engine; + // Add a connection here from MySettings::languageAndLocaleChanged signal to a lambda slot where I can call + // engine.uiLanguage property + QObject::connect(MySettings::globalInstance(), &MySettings::languageAndLocaleChanged, [&engine]() { + engine.setUiLanguage(MySettings::globalInstance()->languageAndLocale()); + }); + QString llmodelSearchPaths = QCoreApplication::applicationDirPath(); const QString libDir = QCoreApplication::applicationDirPath() + "/../lib/"; if (LLM::directoryExists(libDir)) diff --git a/gpt4all-chat/mysettings.cpp b/gpt4all-chat/mysettings.cpp index fae98e4a..c80af29f 100644 --- a/gpt4all-chat/mysettings.cpp +++ b/gpt4all-chat/mysettings.cpp @@ -7,6 +7,7 @@ #include #include #include +#include #include #include #include @@ -23,6 +24,9 @@ using namespace Qt::Literals::StringLiterals; +// FIXME: All of these default strings that are shown in the UI for settings need to be marked as +// translatable + namespace defaults { static const int threadCount = std::min(4, (int32_t) std::thread::hardware_concurrency()); @@ -30,6 +34,7 @@ static const bool forceMetal = false; static const bool networkIsActive = false; static const bool networkUsageStatsActive = false; static const QString device = "Auto"; +static const QString languageAndLocale = "Default"; } // namespace defaults @@ -95,6 +100,46 @@ static QStringList getDevices(bool skipKompute = false) return deviceList; } +static QString getUiLanguage(const QString directory, const QString fileName) +{ + QTranslator translator; + const QString filePath = directory + QDir::separator() + fileName; + if (translator.load(filePath)) { + const QString lang = fileName.mid(fileName.indexOf('_') + 1, + fileName.lastIndexOf('.') - fileName.indexOf('_') - 1); + return lang; + } + + qDebug() << "ERROR: Failed to load translation file:" << filePath; + return QString(); +} + +static QStringList getUiLanguages(const QString &modelPath) +{ + QStringList languageList( { QObject::tr("Default") } ); + + // Add the language translations from model path files first which is used by translation developers + // to load translations in progress without having to rebuild all of GPT4All from source + { + const QDir dir(modelPath); + const QStringList qmFiles = dir.entryList({"*.qm"}, QDir::Files); + for (const QString &fileName : qmFiles) + languageList << getUiLanguage(modelPath, fileName); + } + + // Now add the internal language translations + { + const QDir dir(":/i18n"); + const QStringList qmFiles = dir.entryList({"*.qm"}, QDir::Files); + for (const QString &fileName : qmFiles) { + const QString lang = getUiLanguage(":/i18n", fileName); + if (!languageList.contains(lang)) + languageList.append(lang); + } + } + return languageList; +} + class MyPrivateSettings: public MySettings { }; Q_GLOBAL_STATIC(MyPrivateSettings, settingsInstance) MySettings *MySettings::globalInstance() @@ -106,6 +151,7 @@ MySettings::MySettings() : QObject(nullptr) , m_deviceList(getDevices()) , m_embeddingsDeviceList(getDevices(/*skipKompute*/ true)) + , m_uiLanguages(getUiLanguages(modelPath())) { } @@ -154,6 +200,7 @@ void MySettings::restoreApplicationDefaults() setUserDefaultModel(basicDefaults.value("userDefaultModel").toString()); setForceMetal(defaults::forceMetal); setSuggestionMode(basicDefaults.value("suggestionMode").value()); + setLanguageAndLocale(defaults::languageAndLocale); } void MySettings::restoreLocalDocsDefaults() @@ -521,3 +568,91 @@ void MySettings::setNetworkUsageStatsActive(bool value) emit networkUsageStatsActiveChanged(); } } + +QString MySettings::languageAndLocale() const +{ + auto value = m_settings.value("languageAndLocale"); + if (!value.isValid()) + return defaults::languageAndLocale; + return value.toString(); +} + +QString MySettings::filePathForLocale(const QLocale &locale) +{ + // Check and see if we have a translation for the chosen locale and set it if possible otherwise + // we return the filepath for the 'en' translation + const QStringList uiLanguages = locale.uiLanguages(QLocale::TagSeparator::Underscore); + + // Scan this directory for files named like gpt4all_%1.qm that match and if so return them first + // this is the model download directory and it can be used by translation developers who are + // trying to test their translations by just compiling the translation with the lrelease tool + // rather than having to recompile all of GPT4All + QString directory = modelPath(); + for (const QString &bcp47Name : uiLanguages) { + QString filePath = QString("%1/gpt4all_%2.qm").arg(directory).arg(bcp47Name); + QFileInfo filePathInfo(filePath); + if (filePathInfo.exists()) return filePath; + } + + // Now scan the internal built-in translations + for (QString bcp47Name : uiLanguages) { + QString filePath = QString(":/i18n/gpt4all_%1.qm").arg(bcp47Name); + QFileInfo filePathInfo(filePath); + if (filePathInfo.exists()) return filePath; + } + return QString(":/i18n/gpt4all_en.qm"); +} + +void MySettings::setLanguageAndLocale(const QString &bcp47Name) +{ + if (!bcp47Name.isEmpty() && languageAndLocale() != bcp47Name) + m_settings.setValue("languageAndLocale", bcp47Name); + + // When the app is started this method is called with no bcp47Name given which sets the translation + // to either the default which is the system locale or the one explicitly set by the user previously. + QLocale locale; + const QString l = languageAndLocale(); + if (l == "Default") + locale = QLocale::system(); + else + locale = QLocale(l); + + // If we previously installed a translator, then remove it + if (m_translator) { + if (!qGuiApp->removeTranslator(m_translator)) { + qDebug() << "ERROR: Failed to remove the previous translator"; + } else { + delete m_translator; + m_translator = nullptr; + } + } + + // We expect that the translator was removed and is now a nullptr + Q_ASSERT(!m_translator); + + const QString filePath = filePathForLocale(locale); + // Installing the default gpt4all_en.qm fails presumably because it has no strings that are + // different from the ones stored in the binary + if (!m_translator && !filePath.endsWith("en.qm")) { + // Create a new translator object on the heap + m_translator = new QTranslator(this); + bool success = m_translator->load(filePath); + Q_ASSERT(success); + if (!success) { + qDebug() << "ERROR: Failed to load translation file:" << filePath; + delete m_translator; + m_translator = nullptr; + } + + // If we've successfully loaded it, then try and install it + if (!qGuiApp->installTranslator(m_translator)) { + qDebug() << "ERROR: Failed to install the translator:" << filePath; + delete m_translator; + m_translator = nullptr; + } + } + + // Finally, set the locale whether we have a translation or not + QLocale::setDefault(locale); + emit languageAndLocaleChanged(); +} diff --git a/gpt4all-chat/mysettings.h b/gpt4all-chat/mysettings.h index a6f8c59b..b84a44f8 100644 --- a/gpt4all-chat/mysettings.h +++ b/gpt4all-chat/mysettings.h @@ -33,8 +33,11 @@ class MySettings : public QObject Q_PROPERTY(bool serverChat READ serverChat WRITE setServerChat NOTIFY serverChatChanged) Q_PROPERTY(QString modelPath READ modelPath WRITE setModelPath NOTIFY modelPathChanged) Q_PROPERTY(QString userDefaultModel READ userDefaultModel WRITE setUserDefaultModel NOTIFY userDefaultModelChanged) + // FIXME: This should be changed to an enum to allow translations to work Q_PROPERTY(QString chatTheme READ chatTheme WRITE setChatTheme NOTIFY chatThemeChanged) + // FIXME: This should be changed to an enum to allow translations to work Q_PROPERTY(QString fontSize READ fontSize WRITE setFontSize NOTIFY fontSizeChanged) + Q_PROPERTY(QString languageAndLocale READ languageAndLocale WRITE setLanguageAndLocale NOTIFY languageAndLocaleChanged) Q_PROPERTY(bool forceMetal READ forceMetal WRITE setForceMetal NOTIFY forceMetalChanged) Q_PROPERTY(QString lastVersionStarted READ lastVersionStarted WRITE setLastVersionStarted NOTIFY lastVersionStartedChanged) Q_PROPERTY(int localDocsChunkSize READ localDocsChunkSize WRITE setLocalDocsChunkSize NOTIFY localDocsChunkSizeChanged) @@ -52,6 +55,7 @@ class MySettings : public QObject Q_PROPERTY(QStringList embeddingsDeviceList MEMBER m_embeddingsDeviceList CONSTANT) Q_PROPERTY(int networkPort READ networkPort WRITE setNetworkPort NOTIFY networkPortChanged) Q_PROPERTY(SuggestionMode suggestionMode READ suggestionMode WRITE setSuggestionMode NOTIFY suggestionModeChanged) + Q_PROPERTY(QStringList uiLanguages MEMBER m_uiLanguages CONSTANT) public: static MySettings *globalInstance(); @@ -142,6 +146,9 @@ public: SuggestionMode suggestionMode() const; void setSuggestionMode(SuggestionMode mode); + QString languageAndLocale() const; + void setLanguageAndLocale(const QString &bcp47Name = QString()); // called on startup with QString() + // Release/Download settings QString lastVersionStarted() const; void setLastVersionStarted(const QString &value); @@ -215,12 +222,15 @@ Q_SIGNALS: void attemptModelLoadChanged(); void deviceChanged(); void suggestionModeChanged(); + void languageAndLocaleChanged(); private: QSettings m_settings; bool m_forceMetal; const QStringList m_deviceList; const QStringList m_embeddingsDeviceList; + const QStringList m_uiLanguages; + QTranslator *m_translator = nullptr; private: explicit MySettings(); @@ -232,6 +242,7 @@ private: QVariant getModelSetting(const QString &name, const ModelInfo &info) const; void setModelSetting(const QString &name, const ModelInfo &info, const QVariant &value, bool force, bool signal = false); + QString filePathForLocale(const QLocale &locale); }; #endif // MYSETTINGS_H diff --git a/gpt4all-chat/qml/ApplicationSettings.qml b/gpt4all-chat/qml/ApplicationSettings.qml index e20e8628..5969dbb8 100644 --- a/gpt4all-chat/qml/ApplicationSettings.qml +++ b/gpt4all-chat/qml/ApplicationSettings.qml @@ -160,16 +160,46 @@ MySettingsTab { MySettings.fontSize = fontBox.currentText } } + MySettingsLabel { + id: languageLabel + visible: MySettings.uiLanguages.length > 1 + text: qsTr("Language and Locale") + helpText: qsTr("The language and locale you wish to use.") + Layout.row: 4 + Layout.column: 0 + } + MyComboBox { + id: languageBox + visible: MySettings.uiLanguages.length > 1 + Layout.row: 4 + Layout.column: 2 + Layout.minimumWidth: 200 + Layout.maximumWidth: 200 + Layout.fillWidth: false + Layout.alignment: Qt.AlignRight + model: MySettings.uiLanguages + Accessible.name: fontLabel.text + Accessible.description: fontLabel.helpText + function updateModel() { + languageBox.currentIndex = languageBox.indexOfValue(MySettings.languageAndLocale); + } + Component.onCompleted: { + languageBox.updateModel() + } + onActivated: { + MySettings.languageAndLocale = languageBox.currentText + } + } MySettingsLabel { id: deviceLabel text: qsTr("Device") helpText: qsTr('The compute device used for text generation. "Auto" uses Vulkan or Metal.') - Layout.row: 4 + Layout.row: 5 Layout.column: 0 } MyComboBox { id: deviceBox - Layout.row: 4 + Layout.row: 5 Layout.column: 2 Layout.minimumWidth: 400 Layout.maximumWidth: 400 @@ -198,12 +228,12 @@ MySettingsTab { id: defaultModelLabel text: qsTr("Default Model") helpText: qsTr("The preferred model for new chats. Also used as the local server fallback.") - Layout.row: 5 + Layout.row: 6 Layout.column: 0 } MyComboBox { id: comboBox - Layout.row: 5 + Layout.row: 6 Layout.column: 2 Layout.minimumWidth: 400 Layout.maximumWidth: 400 @@ -231,12 +261,12 @@ MySettingsTab { id: suggestionModeLabel text: qsTr("Suggestion Mode") helpText: qsTr("Generate suggested follow-up questions at the end of responses.") - Layout.row: 6 + Layout.row: 7 Layout.column: 0 } MyComboBox { id: suggestionModeBox - Layout.row: 6 + Layout.row: 7 Layout.column: 2 Layout.minimumWidth: 400 Layout.maximumWidth: 400 @@ -255,12 +285,12 @@ MySettingsTab { id: modelPathLabel text: qsTr("Download Path") helpText: qsTr("Where to store local models and the LocalDocs database.") - Layout.row: 7 + Layout.row: 8 Layout.column: 0 } RowLayout { - Layout.row: 7 + Layout.row: 8 Layout.column: 2 Layout.alignment: Qt.AlignRight Layout.minimumWidth: 400 @@ -297,12 +327,12 @@ MySettingsTab { id: dataLakeLabel text: qsTr("Enable Datalake") helpText: qsTr("Send chats and feedback to the GPT4All Open-Source Datalake.") - Layout.row: 8 + Layout.row: 9 Layout.column: 0 } MyCheckBox { id: dataLakeBox - Layout.row: 8 + Layout.row: 9 Layout.column: 2 Layout.alignment: Qt.AlignRight Component.onCompleted: { dataLakeBox.checked = MySettings.networkIsActive; } @@ -320,7 +350,7 @@ MySettingsTab { } ColumnLayout { - Layout.row: 9 + Layout.row: 10 Layout.column: 0 Layout.columnSpan: 3 Layout.fillWidth: true @@ -343,7 +373,7 @@ MySettingsTab { id: nThreadsLabel text: qsTr("CPU Threads") helpText: qsTr("The number of CPU threads used for inference and embedding.") - Layout.row: 10 + Layout.row: 11 Layout.column: 0 } MyTextField { @@ -351,7 +381,7 @@ MySettingsTab { color: theme.textColor font.pixelSize: theme.fontSizeLarge Layout.alignment: Qt.AlignRight - Layout.row: 10 + Layout.row: 11 Layout.column: 2 Layout.minimumWidth: 200 Layout.maximumWidth: 200 @@ -375,12 +405,12 @@ MySettingsTab { id: saveChatsContextLabel text: qsTr("Save Chat Context") helpText: qsTr("Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat.") - Layout.row: 11 + Layout.row: 12 Layout.column: 0 } MyCheckBox { id: saveChatsContextBox - Layout.row: 11 + Layout.row: 12 Layout.column: 2 Layout.alignment: Qt.AlignRight checked: MySettings.saveChatsContext @@ -392,12 +422,12 @@ MySettingsTab { id: serverChatLabel text: qsTr("Enable Local Server") helpText: qsTr("Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage.") - Layout.row: 12 + Layout.row: 13 Layout.column: 0 } MyCheckBox { id: serverChatBox - Layout.row: 12 + Layout.row: 13 Layout.column: 2 Layout.alignment: Qt.AlignRight checked: MySettings.serverChat @@ -409,7 +439,7 @@ MySettingsTab { id: serverPortLabel text: qsTr("API Server Port") helpText: qsTr("The port to use for the local server. Requires restart.") - Layout.row: 13 + Layout.row: 14 Layout.column: 0 } MyTextField { @@ -417,7 +447,7 @@ MySettingsTab { text: MySettings.networkPort color: theme.textColor font.pixelSize: theme.fontSizeLarge - Layout.row: 13 + Layout.row: 14 Layout.column: 2 Layout.minimumWidth: 200 Layout.maximumWidth: 200 @@ -462,12 +492,12 @@ MySettingsTab { id: updatesLabel text: qsTr("Check For Updates") helpText: qsTr("Manually check for an update to GPT4All."); - Layout.row: 14 + Layout.row: 15 Layout.column: 0 } MySettingsButton { - Layout.row: 14 + Layout.row: 15 Layout.column: 2 Layout.alignment: Qt.AlignRight text: qsTr("Updates"); @@ -478,7 +508,7 @@ MySettingsTab { } Rectangle { - Layout.row: 15 + Layout.row: 16 Layout.column: 0 Layout.columnSpan: 3 Layout.fillWidth: true diff --git a/gpt4all-chat/translations/gpt4all_en.ts b/gpt4all-chat/translations/gpt4all_en.ts index aeaf403d..b33f9a21 100644 --- a/gpt4all-chat/translations/gpt4all_en.ts +++ b/gpt4all-chat/translations/gpt4all_en.ts @@ -1,6 +1,6 @@ - + AddCollectionView @@ -486,164 +486,176 @@ - - + + + Language and Locale + + + + + + The language and locale you wish to use. + + + + + Device - - + + The compute device used for text generation. "Auto" uses Vulkan or Metal. - - + + Default Model - - + + The preferred model for new chats. Also used as the local server fallback. - - + + Suggestion Mode - - + + Generate suggested follow-up questions at the end of responses. - - + + When chatting with LocalDocs - - + + Whenever possible - - + + Never - - + + Download Path - - + + Where to store local models and the LocalDocs database. - - + + Browse - - + + Choose where to save model files - - + + Enable Datalake - - + + Send chats and feedback to the GPT4All Open-Source Datalake. - - + + Advanced - - + + CPU Threads - - + + The number of CPU threads used for inference and embedding. - - + + Save Chat Context - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - - + + Enable Local Server - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - - + + API Server Port - - + + The port to use for the local server. Requires restart. - - + + Check For Updates - - + + Manually check for an update to GPT4All. - - + + Updates @@ -1178,6 +1190,7 @@ model to get started %n file(s) + @@ -1186,6 +1199,7 @@ model to get started %n word(s) + @@ -1593,6 +1607,7 @@ model to get started %n file(s) + @@ -1601,6 +1616,7 @@ model to get started %n word(s) + diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts index a11fbf31..53e49076 100644 --- a/gpt4all-chat/translations/gpt4all_es_MX.ts +++ b/gpt4all-chat/translations/gpt4all_es_MX.ts @@ -1,573 +1,441 @@ - - - AddCollectionView - - - - ← Existing Collections - ← Colecciones existentes - - - - - Add Document Collection - Agregar colección de documentos - - - - - Add a folder containing plain text files, PDFs, or Markdown. Configure + + + AddCollectionView + + + + ← Existing Collections + ← Colecciones existentes + + + + + Add Document Collection + Agregar colección de documentos + + + Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. - Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. + Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. Configure extensiones adicionales en Configuración. - - - - - Please choose a directory - Por favor, elija un directorio - - - - - Name - Nombre - - - - - Collection name... - Nombre de la colección... - - - - - Name of the collection to add (Required) - Nombre de la colección a agregar (Requerido) - - - - - Folder - Carpeta - - - - - Folder path... - Ruta de la carpeta... - - - - - Folder path to documents (Required) - Ruta de la carpeta de documentos (Requerido) - - - - - Browse - Explorar - - - - - Create Collection - Crear colección - - - - AddModelView - - - - ← Existing Models - ← Modelos existentes - - - - - Explore Models - Explorar modelos - - - - - Discover and download models by keyword search... - Descubre y descarga modelos mediante búsqueda por palabras clave... - - - - - Text field for discovering and filtering downloadable models - Campo de texto para descubrir y filtrar modelos descargables - - - - - Initiate model discovery and filtering - Iniciar descubrimiento y filtrado de modelos - - - - - Triggers discovery and filtering of models - Activa el descubrimiento y filtrado de modelos - - - - - Default - Predeterminado - - - - - Likes - Me gusta - - - - - Downloads - Descargas - - - - - Recent - Reciente - - - - - Asc - Asc - - - - - Desc - Desc - - - - - None - Ninguno - - - - - Searching · %1 - Buscando · %1 - - - - - Sort by: %1 - Ordenar por: %1 - - - - - Sort dir: %1 - Dirección de ordenamiento: %1 - - - - - Limit: %1 - Límite: %1 - - - - - Network error: could not retrieve %1 - Error de red: no se pudo recuperar %1 - - - - - - - Busy indicator - Indicador de ocupado - - - - - Displayed when the models request is ongoing - Se muestra cuando la solicitud de modelos está en curso - - - - - Model file - Archivo del modelo - - - - - Model file to be downloaded - Archivo del modelo a descargar - - - - - Description - Descripción - - - - - File description - Descripción del archivo - - - - - Cancel - Cancelar - - - - - Resume - Reanudar - - - - - Download - Descargar - - - - - Stop/restart/start the download - Detener/reiniciar/iniciar la descarga - - - - - Remove - Eliminar - - - - - Remove model from filesystem - Eliminar modelo del sistema de archivos - - - - - - - Install - Instalar - - - - - Install online model - Instalar modelo en línea - - - - - <strong><font size="2">WARNING: Not recommended for your + + + + + Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. + + + + + + Please choose a directory + Por favor, elija un directorio + + + + + Name + Nombre + + + + + Collection name... + Nombre de la colección... + + + + + Name of the collection to add (Required) + Nombre de la colección a agregar (Requerido) + + + + + Folder + Carpeta + + + + + Folder path... + Ruta de la carpeta... + + + + + Folder path to documents (Required) + Ruta de la carpeta de documentos (Requerido) + + + + + Browse + Explorar + + + + + Create Collection + Crear colección + + + + AddModelView + + + + ← Existing Models + ← Modelos existentes + + + + + Explore Models + Explorar modelos + + + + + Discover and download models by keyword search... + Descubre y descarga modelos mediante búsqueda por palabras clave... + + + + + Text field for discovering and filtering downloadable models + Campo de texto para descubrir y filtrar modelos descargables + + + + + Initiate model discovery and filtering + Iniciar descubrimiento y filtrado de modelos + + + + + Triggers discovery and filtering of models + Activa el descubrimiento y filtrado de modelos + + + + + Default + Predeterminado + + + + + Likes + Me gusta + + + + + Downloads + Descargas + + + + + Recent + Reciente + + + + + Asc + Asc + + + + + Desc + Desc + + + + + None + Ninguno + + + + + Searching · %1 + Buscando · %1 + + + + + Sort by: %1 + Ordenar por: %1 + + + + + Sort dir: %1 + Dirección de ordenamiento: %1 + + + + + Limit: %1 + Límite: %1 + + + + + Network error: could not retrieve %1 + Error de red: no se pudo recuperar %1 + + + + + + + Busy indicator + Indicador de ocupado + + + + + Displayed when the models request is ongoing + Se muestra cuando la solicitud de modelos está en curso + + + + + Model file + Archivo del modelo + + + + + Model file to be downloaded + Archivo del modelo a descargar + + + + + Description + Descripción + + + + + File description + Descripción del archivo + + + + + Cancel + Cancelar + + + + + Resume + Reanudar + + + + + Download + Descargar + + + + + Stop/restart/start the download + Detener/reiniciar/iniciar la descarga + + + + + Remove + Eliminar + + + + + Remove model from filesystem + Eliminar modelo del sistema de archivos + + + + + + + Install + Instalar + + + + + Install online model + Instalar modelo en línea + + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ADVERTENCIA: No recomendado + <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font> - - - - - %1 GB - %1 GB - - - - - - - ? - ? - - - - - Describes an error that occurred when downloading - Describe un error que ocurrió durante la descarga - - - - - <strong><font size="1"><a + + + + + %1 GB + %1 GB + + + + + + + ? + ? + + + + + Describes an error that occurred when downloading + Describe un error que ocurrió durante la descarga + + + <strong><font size="1"><a href="#error">Error</a></strong></font> - <strong><font size="1"><a + <strong><font size="1"><a href="#error">Error</a></strong></font> - - - - - Error for incompatible hardware - Error por hardware incompatible - - - - - Download progressBar - Barra de progreso de descarga - - - - - Shows the progress made in the download - Muestra el progreso realizado en la descarga - - - - - Download speed - Velocidad de descarga - - - - - Download speed in bytes/kilobytes/megabytes per second - Velocidad de descarga en bytes/kilobytes/megabytes por segundo - - - - - Calculating... - Calculando... - - - - - - - Whether the file hash is being calculated - Si se está calculando el hash del archivo - - - - - Displayed when the file hash is being calculated - Se muestra cuando se está calculando el hash del archivo - - - - - enter $API_KEY - ingrese $API_KEY - - - - - File size - Tamaño del archivo - - - - - RAM required - RAM requerida - - - - - Parameters - Parámetros - - - - - Quant - Cuantificación - - - - - Type - Tipo - - - - ApplicationSettings - - - - Application - Aplicación - - - - - Network dialog - Diálogo de red - - - - - opt-in to share feedback/conversations - optar por compartir comentarios/conversaciones - - - - - ERROR: Update system could not find the MaintenanceTool used<br> + + + + + Error for incompatible hardware + Error por hardware incompatible + + + + + Download progressBar + Barra de progreso de descarga + + + + + Shows the progress made in the download + Muestra el progreso realizado en la descarga + + + + + Download speed + Velocidad de descarga + + + + + Download speed in bytes/kilobytes/megabytes per second + Velocidad de descarga en bytes/kilobytes/megabytes por segundo + + + + + Calculating... + Calculando... + + + + + + + Whether the file hash is being calculated + Si se está calculando el hash del archivo + + + + + Displayed when the file hash is being calculated + Se muestra cuando se está calculando el hash del archivo + + + + + enter $API_KEY + ingrese $API_KEY + + + + + File size + Tamaño del archivo + + + + + RAM required + RAM requerida + + + + + Parameters + Parámetros + + + + + Quant + Cuantificación + + + + + Type + Tipo + + + + ApplicationSettings + + + + Application + Aplicación + + + + + Network dialog + Diálogo de red + + + + + opt-in to share feedback/conversations + optar por compartir comentarios/conversaciones + + + ERROR: Update system could not find the MaintenanceTool used<br> to check for updates!<br><br> Did you install this application using the online installer? If so,<br> the MaintenanceTool executable should be located one directory<br> @@ -575,7 +443,7 @@ If you can't start it manually, then I'm afraid you'll have to<br> reinstall. - ERROR: El sistema de actualización no pudo encontrar la herramienta de + ERROR: El sistema de actualización no pudo encontrar la herramienta de mantenimiento utilizada<br> para buscar actualizaciones<br><br> ¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br> @@ -585,821 +453,716 @@ archivos.<br><br> Si no puede iniciarlo manualmente, me temo que tendrá que<br> reinstalar. - - - - - Error dialog - Diálogo de error - - - - - Application Settings - Configuración de la aplicación - - - - - General - General - - - - - Theme - Tema - - - - - The application color scheme. - El esquema de colores de la aplicación. - - - - - Dark - Oscuro - - - - - Light - Claro - - - - - LegacyDark - Oscuro legado - - - - - Font Size - Tamaño de fuente - - - - - The size of text in the application. - El tamaño del texto en la aplicación. - - - - - Device - Dispositivo - - - - - The compute device used for text generation. "Auto" uses Vulkan or + + + + + Error dialog + Diálogo de error + + + + + Application Settings + Configuración de la aplicación + + + + + General + General + + + + + Theme + Tema + + + + + The application color scheme. + El esquema de colores de la aplicación. + + + + + Dark + Oscuro + + + + + Light + Claro + + + + + LegacyDark + Oscuro legado + + + + + Font Size + Tamaño de fuente + + + + + The size of text in the application. + El tamaño del texto en la aplicación. + + + + + Device + Dispositivo + + + The compute device used for text generation. "Auto" uses Vulkan or Metal. - El dispositivo de cómputo utilizado para la generación de texto. + El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal. - - - - - Default Model - Modelo predeterminado - - - - - The preferred model for new chats. Also used as the local server fallback. - El modelo preferido para nuevos chats. También se utiliza como respaldo del + + + + + ERROR: Update system could not find the MaintenanceTool used<br> + to check for updates!<br><br> + Did you install this application using the online installer? If so,<br> + the MaintenanceTool executable should be located one directory<br> + above where this application resides on your filesystem.<br><br> + If you can't start it manually, then I'm afraid you'll have to<br> + reinstall. + + + + + + Language and Locale + + + + + + The language and locale you wish to use. + + + + + + The compute device used for text generation. "Auto" uses Vulkan or Metal. + + + + + + Default Model + Modelo predeterminado + + + + + The preferred model for new chats. Also used as the local server fallback. + El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local. - - - - - Suggestion Mode - Modo de sugerencia - - - - - Generate suggested follow-up questions at the end of responses. - Generar preguntas de seguimiento sugeridas al final de las respuestas. - - - - - When chatting with LocalDocs - Al chatear con LocalDocs - - - - - Whenever possible - Siempre que sea posible - - - - - Never - Nunca - - - - - Download Path - Ruta de descarga - - - - - Where to store local models and the LocalDocs database. - Dónde almacenar los modelos locales y la base de datos de LocalDocs. - - - - - Browse - Explorar - - - - - Choose where to save model files - Elegir dónde guardar los archivos del modelo - - - - - Enable Datalake - Habilitar Datalake - - - - - Send chats and feedback to the GPT4All Open-Source Datalake. - Enviar chats y comentarios al Datalake de código abierto de GPT4All. - - - - - Advanced - Avanzado - - - - - CPU Threads - Hilos de CPU - - - - - The number of CPU threads used for inference and embedding. - El número de hilos de CPU utilizados para inferencia e incrustación. - - - - - Save Chat Context - Guardar contexto del chat - - - - - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB + + + + + Suggestion Mode + Modo de sugerencia + + + + + Generate suggested follow-up questions at the end of responses. + Generar preguntas de seguimiento sugeridas al final de las respuestas. + + + + + When chatting with LocalDocs + Al chatear con LocalDocs + + + + + Whenever possible + Siempre que sea posible + + + + + Never + Nunca + + + + + Download Path + Ruta de descarga + + + + + Where to store local models and the LocalDocs database. + Dónde almacenar los modelos locales y la base de datos de LocalDocs. + + + + + Browse + Explorar + + + + + Choose where to save model files + Elegir dónde guardar los archivos del modelo + + + + + Enable Datalake + Habilitar Datalake + + + + + Send chats and feedback to the GPT4All Open-Source Datalake. + Enviar chats y comentarios al Datalake de código abierto de GPT4All. + + + + + Advanced + Avanzado + + + + + CPU Threads + Hilos de CPU + + + + + The number of CPU threads used for inference and embedding. + El número de hilos de CPU utilizados para inferencia e incrustación. + + + + + Save Chat Context + Guardar contexto del chat + + + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. + + + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - Guardar el estado del modelo de chat en el disco para una carga más rápida. + Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat. - - - - - Enable Local Server - Habilitar servidor local - - - - - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased + + + + + Enable Local Server + Habilitar servidor local + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta + Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos. - - - - - API Server Port - Puerto del servidor API - - - - - The port to use for the local server. Requires restart. - El puerto a utilizar para el servidor local. Requiere reinicio. - - - - - Check For Updates - Buscar actualizaciones - - - - - Manually check for an update to GPT4All. - Buscar manualmente una actualización para GPT4All. - - - - - Updates - Actualizaciones - - - - Chat - - - - New Chat - Nuevo chat - - - - Server Chat - Chat del servidor - - - - ChatDrawer - - - - Drawer - Cajón - - - - - Main navigation drawer - Cajón de navegación principal - - - - - + New Chat - + Nuevo chat - - - - - Create a new chat - Crear un nuevo chat - - - - - Select the current chat or edit the chat when in edit mode - Seleccionar el chat actual o editar el chat cuando esté en modo de edición - - - - - Edit chat name - Editar nombre del chat - - - - - Save chat name - Guardar nombre del chat - - - - - Delete chat - Eliminar chat - - - - - Confirm chat deletion - Confirmar eliminación del chat - - - - - Cancel chat deletion - Cancelar eliminación del chat - - - - - List of chats - Lista de chats - - - - - List of chats in the drawer dialog - Lista de chats en el diálogo del cajón - - - - ChatListModel - - - TODAY - HOY - - - - THIS WEEK - ESTA SEMANA - - - - THIS MONTH - ESTE MES - - - - LAST SIX MONTHS - ÚLTIMOS SEIS MESES - - - - THIS YEAR - ESTE AÑO - - - - LAST YEAR - AÑO PASADO - - - - ChatView - - - - <h3>Warning</h3><p>%1</p> - <h3>Advertencia</h3><p>%1</p> - - - - - Switch model dialog - Diálogo para cambiar de modelo - - - - - Warn the user if they switch models, then context will be erased - Advertir al usuario si cambia de modelo, entonces se borrará el contexto - - - - - Conversation copied to clipboard. - Conversación copiada al portapapeles. - - - - - Code copied to clipboard. - Código copiado al portapapeles. - - - - - Chat panel - Panel de chat - - - - - Chat panel with options - Panel de chat con opciones - - - - - Reload the currently loaded model - Recargar el modelo actualmente cargado - - - - - Eject the currently loaded model - Expulsar el modelo actualmente cargado - - - - - No model installed. - No hay modelo instalado. - - - - - Model loading error. - Error al cargar el modelo. - - - - - Waiting for model... - Esperando al modelo... - - - - - Switching context... - Cambiando contexto... - - - - - Choose a model... - Elige un modelo... - - - - - Not found: %1 - No encontrado: %1 - - - - - The top item is the current model - El elemento superior es el modelo actual - - - - - - - LocalDocs - DocumentosLocales - - - - - Add documents - Agregar documentos - - - - - add collections of documents to the chat - agregar colecciones de documentos al chat - - - - - Load the default model - Cargar el modelo predeterminado - - - - - Loads the default model which can be changed in settings - Carga el modelo predeterminado que se puede cambiar en la configuración - - - - - No Model Installed - No hay modelo instalado - - - - - GPT4All requires that you install at least one + + + + + API Server Port + Puerto del servidor API + + + + + The port to use for the local server. Requires restart. + El puerto a utilizar para el servidor local. Requiere reinicio. + + + + + Check For Updates + Buscar actualizaciones + + + + + Manually check for an update to GPT4All. + Buscar manualmente una actualización para GPT4All. + + + + + Updates + Actualizaciones + + + + Chat + + + + New Chat + Nuevo chat + + + + Server Chat + Chat del servidor + + + + ChatDrawer + + + + Drawer + Cajón + + + + + Main navigation drawer + Cajón de navegación principal + + + + + + New Chat + + Nuevo chat + + + + + Create a new chat + Crear un nuevo chat + + + + + Select the current chat or edit the chat when in edit mode + Seleccionar el chat actual o editar el chat cuando esté en modo de edición + + + + + Edit chat name + Editar nombre del chat + + + + + Save chat name + Guardar nombre del chat + + + + + Delete chat + Eliminar chat + + + + + Confirm chat deletion + Confirmar eliminación del chat + + + + + Cancel chat deletion + Cancelar eliminación del chat + + + + + List of chats + Lista de chats + + + + + List of chats in the drawer dialog + Lista de chats en el diálogo del cajón + + + + ChatListModel + + + TODAY + HOY + + + + THIS WEEK + ESTA SEMANA + + + + THIS MONTH + ESTE MES + + + + LAST SIX MONTHS + ÚLTIMOS SEIS MESES + + + + THIS YEAR + ESTE AÑO + + + + LAST YEAR + AÑO PASADO + + + + ChatView + + + + <h3>Warning</h3><p>%1</p> + <h3>Advertencia</h3><p>%1</p> + + + + + Switch model dialog + Diálogo para cambiar de modelo + + + + + Warn the user if they switch models, then context will be erased + Advertir al usuario si cambia de modelo, entonces se borrará el contexto + + + + + Conversation copied to clipboard. + Conversación copiada al portapapeles. + + + + + Code copied to clipboard. + Código copiado al portapapeles. + + + + + Chat panel + Panel de chat + + + + + Chat panel with options + Panel de chat con opciones + + + + + Reload the currently loaded model + Recargar el modelo actualmente cargado + + + + + Eject the currently loaded model + Expulsar el modelo actualmente cargado + + + + + No model installed. + No hay modelo instalado. + + + + + Model loading error. + Error al cargar el modelo. + + + + + Waiting for model... + Esperando al modelo... + + + + + Switching context... + Cambiando contexto... + + + + + Choose a model... + Elige un modelo... + + + + + Not found: %1 + No encontrado: %1 + + + + + The top item is the current model + El elemento superior es el modelo actual + + + + + + + LocalDocs + DocumentosLocales + + + + + Add documents + Agregar documentos + + + + + add collections of documents to the chat + agregar colecciones de documentos al chat + + + + + Load the default model + Cargar el modelo predeterminado + + + + + Loads the default model which can be changed in settings + Carga el modelo predeterminado que se puede cambiar en la configuración + + + + + No Model Installed + No hay modelo instalado + + + GPT4All requires that you install at least one model to get started - GPT4All requiere que instales al menos un + GPT4All requiere que instales al menos un modelo para comenzar - - - - - Install a Model - Instalar un modelo - - - - - Shows the add model view - Muestra la vista de agregar modelo - - - - - Conversation with the model - Conversación con el modelo - - - - - prompt / response pairs from the conversation - pares de pregunta / respuesta de la conversación - - - - - GPT4All - GPT4All - - - - - You - - - - - - recalculating context ... - recalculando contexto ... - - - - - response stopped ... - respuesta detenida ... - - - - - processing ... - procesando ... - - - - - generating response ... - generando respuesta ... - - - - - generating questions ... - generando preguntas ... - - - - - - - Copy - Copiar - - - - - Copy Message - Copiar mensaje - - - - - Disable markdown - Desactivar markdown - - - - Enable markdown - Activar markdown - - - - - Thumbs up - Me gusta - - - - - Gives a thumbs up to the response - Da un me gusta a la respuesta - - - - - Thumbs down - No me gusta - - - - - Opens thumbs down dialog - Abre el diálogo de no me gusta - - - - - %1 Sources - %1 Fuentes - - - - - Suggested follow-ups - Seguimientos sugeridos - - - - - Erase and reset chat session - Borrar y reiniciar sesión de chat - - - - - Copy chat session to clipboard - Copiar sesión de chat al portapapeles - - - - - Redo last chat response - Rehacer última respuesta del chat - - - - - Stop generating - Detener generación - - - - - Stop the current response generation - Detener la generación de la respuesta actual - - - - - Reloads the model - Recarga el modelo - - - - - <h3>Encountered an error loading + + + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help + + + + + + GPT4All requires that you install at least one +model to get started + + + + + + Install a Model + Instalar un modelo + + + + + Shows the add model view + Muestra la vista de agregar modelo + + + + + Conversation with the model + Conversación con el modelo + + + + + prompt / response pairs from the conversation + pares de pregunta / respuesta de la conversación + + + + + GPT4All + GPT4All + + + + + You + + + + + + recalculating context ... + recalculando contexto ... + + + + + response stopped ... + respuesta detenida ... + + + + + processing ... + procesando ... + + + + + generating response ... + generando respuesta ... + + + + + generating questions ... + generando preguntas ... + + + + + + + Copy + Copiar + + + + + Copy Message + Copiar mensaje + + + + + Disable markdown + Desactivar markdown + + + + + Enable markdown + Activar markdown + + + + + Thumbs up + Me gusta + + + + + Gives a thumbs up to the response + Da un me gusta a la respuesta + + + + + Thumbs down + No me gusta + + + + + Opens thumbs down dialog + Abre el diálogo de no me gusta + + + + + %1 Sources + %1 Fuentes + + + + + Suggested follow-ups + Seguimientos sugeridos + + + + + Erase and reset chat session + Borrar y reiniciar sesión de chat + + + + + Copy chat session to clipboard + Copiar sesión de chat al portapapeles + + + + + Redo last chat response + Rehacer última respuesta del chat + + + + + Stop generating + Detener generación + + + + + Stop the current response generation + Detener la generación de la respuesta actual + + + + + Reloads the model + Recarga el modelo + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, @@ -1412,7 +1175,7 @@ href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - <h3>Se encontró un error al cargar el + <h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos de carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o @@ -1428,1567 +1191,1333 @@ interfaz gráfica<li>Consulte nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda - - - - - - - Reload · %1 - Recargar · %1 - - - - - Loading · %1 - Cargando · %1 - - - - - Load · %1 (default) → - Cargar · %1 (predeterminado) → - - - - - retrieving localdocs: %1 ... - recuperando documentos locales: %1 ... - - - - - searching localdocs: %1 ... - buscando en documentos locales: %1 ... - - - - - Send a message... - Enviar un mensaje... - - - - - Load a model to continue... - Carga un modelo para continuar... - - - - - Send messages/prompts to the model - Enviar mensajes/indicaciones al modelo - - - - - Cut - Cortar - - - - - Paste - Pegar - - - - - Select All - Seleccionar todo - - - - - Send message - Enviar mensaje - - - - - Sends the message/prompt contained in textfield to the model - Envía el mensaje/indicación contenido en el campo de texto al modelo - - - - CollectionsDrawer - - - - Warning: searching collections while indexing can return incomplete results - Advertencia: buscar en colecciones mientras se indexan puede devolver + + + + + + + Reload · %1 + Recargar · %1 + + + + + Loading · %1 + Cargando · %1 + + + + + Load · %1 (default) → + Cargar · %1 (predeterminado) → + + + + + retrieving localdocs: %1 ... + recuperando documentos locales: %1 ... + + + + + searching localdocs: %1 ... + buscando en documentos locales: %1 ... + + + + + Send a message... + Enviar un mensaje... + + + + + Load a model to continue... + Carga un modelo para continuar... + + + + + Send messages/prompts to the model + Enviar mensajes/indicaciones al modelo + + + + + Cut + Cortar + + + + + Paste + Pegar + + + + + Select All + Seleccionar todo + + + + + Send message + Enviar mensaje + + + + + Sends the message/prompt contained in textfield to the model + Envía el mensaje/indicación contenido en el campo de texto al modelo + + + + CollectionsDrawer + + + + Warning: searching collections while indexing can return incomplete results + Advertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos - - - - - %n file(s) - - %n archivo - %n archivos - - - - - - %n word(s) - - %n palabra - %n palabras - - - - - - Updating - Actualizando - - - - - + Add Docs - + Agregar documentos - - - - - Select a collection to make it available to the chat model. - Seleccione una colección para hacerla disponible al modelo de chat. - - - - HomeView - - - - Welcome to GPT4All - Bienvenido a GPT4All - - - - - The privacy-first LLM chat application - La aplicación de chat LLM que prioriza la privacidad - - - - - Start chatting - Comenzar a chatear - - - - - Start Chatting - Iniciar chat - - - - - Chat with any LLM - Chatear con cualquier LLM - - - - - LocalDocs - DocumentosLocales - - - - - Chat with your local files - Chatear con tus archivos locales - - - - - Find Models - Buscar modelos - - - - - Explore and download models - Explorar y descargar modelos - - - - - Latest news - Últimas noticias - - - - - Latest news from GPT4All - Últimas noticias de GPT4All - - - - - Release Notes - Notas de la versión - - - - - Documentation - Documentación - - - - - Discord - Discord - - - - - X (Twitter) - X (Twitter) - - - - - Github - Github - - - - - GPT4All.io - GPT4All.io - - - - - Subscribe to Newsletter - Suscribirse al boletín - - - - LocalDocsSettings - - - - LocalDocs - DocumentosLocales - - - - - LocalDocs Settings - Configuración de DocumentosLocales - - - - - Indexing - Indexación - - - - - Allowed File Extensions - Extensiones de archivo permitidas - - - - - Comma-separated list. LocalDocs will only attempt to process files with these + + + + + %n file(s) + + %n archivo + %n archivos + + + + + + %n word(s) + + %n palabra + %n palabras + + + + + + Updating + Actualizando + + + + + + Add Docs + + Agregar documentos + + + + + Select a collection to make it available to the chat model. + Seleccione una colección para hacerla disponible al modelo de chat. + + + + HomeView + + + + Welcome to GPT4All + Bienvenido a GPT4All + + + + + The privacy-first LLM chat application + La aplicación de chat LLM que prioriza la privacidad + + + + + Start chatting + Comenzar a chatear + + + + + Start Chatting + Iniciar chat + + + + + Chat with any LLM + Chatear con cualquier LLM + + + + + LocalDocs + DocumentosLocales + + + + + Chat with your local files + Chatear con tus archivos locales + + + + + Find Models + Buscar modelos + + + + + Explore and download models + Explorar y descargar modelos + + + + + Latest news + Últimas noticias + + + + + Latest news from GPT4All + Últimas noticias de GPT4All + + + + + Release Notes + Notas de la versión + + + + + Documentation + Documentación + + + + + Discord + Discord + + + + + X (Twitter) + X (Twitter) + + + + + Github + Github + + + + + GPT4All.io + GPT4All.io + + + + + Subscribe to Newsletter + Suscribirse al boletín + + + + LocalDocsSettings + + + + LocalDocs + DocumentosLocales + + + + + LocalDocs Settings + Configuración de DocumentosLocales + + + + + Indexing + Indexación + + + + + Allowed File Extensions + Extensiones de archivo permitidas + + + Comma-separated list. LocalDocs will only attempt to process files with these extensions. - Lista separada por comas. DocumentosLocales solo intentará procesar + Lista separada por comas. DocumentosLocales solo intentará procesar archivos con estas extensiones. - - - - - Embedding - Incrustación - - - - - Use Nomic Embed API - Usar API de incrustación Nomic - - - - - Embed documents using the fast Nomic API instead of a private local model. + + + + + Embedding + Incrustación + + + + + Use Nomic Embed API + Usar API de incrustación Nomic + + + Embed documents using the fast Nomic API instead of a private local model. Requires restart. - Incrustar documentos usando la rápida API de Nomic en lugar de un modelo + Incrustar documentos usando la rápida API de Nomic en lugar de un modelo local privado. Requiere reinicio. - - - - - Nomic API Key - Clave API de Nomic - - - - - API key to use for Nomic Embed. Get one from the Atlas <a + + + + + Nomic API Key + Clave API de Nomic + + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. - Clave API para usar con Nomic Embed. Obtén una en la <a + Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio. - - - - - Embeddings Device - Dispositivo de incrustaciones - - - - - The compute device used for embeddings. "Auto" uses the CPU. Requires + + + + + Embeddings Device + Dispositivo de incrustaciones + + + The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - El dispositivo de cómputo utilizado para las incrustaciones. + El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio. - - - - - Display - Visualización - - - - - Show Sources - Mostrar fuentes - - - - - Display the sources used for each response. - Mostrar las fuentes utilizadas para cada respuesta. - - - - - Advanced - Avanzado - - - - - Warning: Advanced usage only. - Advertencia: Solo para uso avanzado. - - - - - + + + + + Comma-separated list. LocalDocs will only attempt to process files with these extensions. + + + + + + Embed documents using the fast Nomic API instead of a private local model. Requires restart. + + + + + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. + + + + + + The compute device used for embeddings. "Auto" uses the CPU. Requires restart. + + + + + + Display + Visualización + + + + + Show Sources + Mostrar fuentes + + + + + Display the sources used for each response. + Mostrar las fuentes utilizadas para cada respuesta. + + + + + Advanced + Avanzado + + + + + Warning: Advanced usage only. + Advertencia: Solo para uso avanzado. + + + + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. + + + + + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. + + + + + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. + + + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - + Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. - - - - - Document snippet size (characters) - Tamaño del fragmento de documento (caracteres) - - - - - Number of characters per document snippet. Larger numbers increase likelihood of + + + + + Document snippet size (characters) + Tamaño del fragmento de documento (caracteres) + + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Número de caracteres por fragmento de documento. Números más grandes + Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas fácticas, pero también resultan en una generación más lenta. - - - - - Max document snippets per prompt - Máximo de fragmentos de documento por indicación - - - - - Max best N matches of retrieved document snippets to add to the context for + + + + + Max document snippets per prompt + Máximo de fragmentos de documento por indicación + + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Máximo de los mejores N coincidencias de fragmentos de documento + Máximo de los mejores N coincidencias de fragmentos de documento recuperados para agregar al contexto de la indicación. Números más grandes aumentan la probabilidad de respuestas fácticas, pero también resultan en una generación más lenta. - - - - LocalDocsView - - - - LocalDocs - DocumentosLocales - - - - - Chat with your local files - Chatea con tus archivos locales - - - - - + Add Collection - + Agregar colección - - - - - ERROR: The LocalDocs database is not valid. - ERROR: La base de datos de DocumentosLocales no es válida. - - - - - No Collections Installed - No hay colecciones instaladas - - - - - Install a collection of local documents to get started using this feature - Instala una colección de documentos locales para comenzar a usar esta + + + + LocalDocsView + + + + LocalDocs + DocumentosLocales + + + + + Chat with your local files + Chatea con tus archivos locales + + + + + + Add Collection + + Agregar colección + + + + + ERROR: The LocalDocs database is not valid. + ERROR: La base de datos de DocumentosLocales no es válida. + + + + + No Collections Installed + No hay colecciones instaladas + + + + + Install a collection of local documents to get started using this feature + Instala una colección de documentos locales para comenzar a usar esta función - - - - - + Add Doc Collection - + Agregar colección de documentos - - - - - Shows the add model view - Muestra la vista de agregar modelo - - - - - Indexing progressBar - Barra de progreso de indexación - - - - - Shows the progress made in the indexing - Muestra el progreso realizado en la indexación - - - - - ERROR - ERROR - - - - - INDEXING - INDEXANDO - - - - - EMBEDDING - INCRUSTANDO - - - - - REQUIRES UPDATE - REQUIERE ACTUALIZACIÓN - - - - - READY - LISTO - - - - - INSTALLING - INSTALANDO - - - - - Indexing in progress - Indexación en progreso - - - - - Embedding in progress - Incrustación en progreso - - - - - This collection requires an update after version change - Esta colección requiere una actualización después del cambio de versión - - - - - Automatically reindexes upon changes to the folder - Reindexación automática al cambiar la carpeta - - - - - Installation in progress - Instalación en progreso - - - - - % - % - - - - - %n file(s) - - %n archivo - %n archivos - - - - - - %n word(s) - - %n palabra - %n palabras - - - - - - Remove - Eliminar - - - - - Rebuild - Reconstruir - - - - - Reindex this folder from scratch. This is slow and usually not needed. - Reindexar esta carpeta desde cero. Esto es lento y generalmente no es + + + + + + Add Doc Collection + + Agregar colección de documentos + + + + + Shows the add model view + Muestra la vista de agregar modelo + + + + + Indexing progressBar + Barra de progreso de indexación + + + + + Shows the progress made in the indexing + Muestra el progreso realizado en la indexación + + + + + ERROR + ERROR + + + + + INDEXING + INDEXANDO + + + + + EMBEDDING + INCRUSTANDO + + + + + REQUIRES UPDATE + REQUIERE ACTUALIZACIÓN + + + + + READY + LISTO + + + + + INSTALLING + INSTALANDO + + + + + Indexing in progress + Indexación en progreso + + + + + Embedding in progress + Incrustación en progreso + + + + + This collection requires an update after version change + Esta colección requiere una actualización después del cambio de versión + + + + + Automatically reindexes upon changes to the folder + Reindexación automática al cambiar la carpeta + + + + + Installation in progress + Instalación en progreso + + + + + % + % + + + + + %n file(s) + + %n archivo + %n archivos + + + + + + %n word(s) + + %n palabra + %n palabras + + + + + + Remove + Eliminar + + + + + Rebuild + Reconstruir + + + + + Reindex this folder from scratch. This is slow and usually not needed. + Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario. - - - - - Update - Actualizar - - - - - Update the collection to the new version. This is a slow operation. - Actualizar la colección a la nueva versión. Esta es una operación lenta. - - - - ModelList - - - + + + + + Update + Actualizar + + + + + Update the collection to the new version. This is a slow operation. + Actualizar la colección a la nueva versión. Esta es una operación lenta. + + + + ModelList + + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> - + <ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li> - - - - <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> + + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 - <strong>Modelo ChatGPT GPT-3.5 Turbo de + <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1 - - - - <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 - <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2 - - - - <strong>Mistral Tiny model</strong><br> %1 - <strong>Modelo Mistral Tiny</strong><br> %1 - - - - <strong>Mistral Small model</strong><br> %1 - <strong>Modelo Mistral Small</strong><br> %1 - - - - <strong>Mistral Medium model</strong><br> %1 - <strong>Modelo Mistral Medium</strong><br> %1 - - - - <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does + + + + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> + + + + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 + + + + + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. + + + + + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 + <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2 + + + + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> + + + + + <strong>Mistral Tiny model</strong><br> %1 + <strong>Modelo Mistral Tiny</strong><br> %1 + + + + <strong>Mistral Small model</strong><br> %1 + <strong>Modelo Mistral Small</strong><br> %1 + + + + <strong>Mistral Medium model</strong><br> %1 + <strong>Modelo Mistral Medium</strong><br> %1 + + + + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> + + + + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. - <br><br><i>* Aunque pague a OpenAI por ChatGPT-4, esto no + <br><br><i>* Aunque pague a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacte a OpenAI para más información. - - - - + + + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> - + <ul><li>Requiere clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará sus chats a Mistral!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puede solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li> - - - - <strong>Created by + + + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> - <strong>Creado por + <strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Puede encontrar más información <a href="https://huggingface.co/%5">aquí.</a></ul> - - - - ModelSettings - - - - Model - Modelo - - - - - Model Settings - Configuración del modelo - - - - - Clone - Clonar - - - - - Remove - Eliminar - - - - - Name - Nombre - - - - - Model File - Archivo del modelo - - - - - System Prompt - Indicación del sistema - - - - - Prefixed at the beginning of every conversation. Must contain the appropriate + + + + ModelSettings + + + + Model + Modelo + + + + + Model Settings + Configuración del modelo + + + + + Clone + Clonar + + + + + Remove + Eliminar + + + + + Name + Nombre + + + + + Model File + Archivo del modelo + + + + + System Prompt + Indicación del sistema + + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. - Prefijado al inicio de cada conversación. Debe contener los tokens de + Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados. - - - - - Prompt Template - Plantilla de indicación - - - - - The template that wraps every prompt. - La plantilla que envuelve cada indicación. - - - - - Must contain the string "%1" to be replaced with the user's + + + + + Prompt Template + Plantilla de indicación + + + + + The template that wraps every prompt. + La plantilla que envuelve cada indicación. + + + Must contain the string "%1" to be replaced with the user's input. - Debe contener la cadena "%1" para ser reemplazada con la entrada + Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario. - - - - - Chat Name Prompt - Indicación para el nombre del chat - - - - - Prompt used to automatically generate chat names. - Indicación utilizada para generar automáticamente nombres de chat. - - - - - Suggested FollowUp Prompt - Indicación de seguimiento sugerida - - - - - Prompt used to generate suggested follow-up questions. - Indicación utilizada para generar preguntas de seguimiento sugeridas. - - - - - Context Length - Longitud del contexto - - - - - Number of input and output tokens the model sees. - Número de tokens de entrada y salida que el modelo ve. - - - - - Maximum combined prompt/response tokens before information is lost. + + + + + Chat Name Prompt + Indicación para el nombre del chat + + + + + Prompt used to automatically generate chat names. + Indicación utilizada para generar automáticamente nombres de chat. + + + + + Suggested FollowUp Prompt + Indicación de seguimiento sugerida + + + + + Prompt used to generate suggested follow-up questions. + Indicación utilizada para generar preguntas de seguimiento sugeridas. + + + + + Context Length + Longitud del contexto + + + + + Number of input and output tokens the model sees. + Número de tokens de entrada y salida que el modelo ve. + + + Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. - Máximo de tokens combinados de indicación/respuesta antes de que se pierda + Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres. NOTA: No tiene efecto hasta que recargues el modelo. - - - - - Temperature - Temperatura - - - - - Randomness of model output. Higher -> more variation. - Aleatoriedad de la salida del modelo. Mayor -> más variación. - - - - - Temperature increases the chances of choosing less likely tokens. + + + + + Temperature + Temperatura + + + + + Randomness of model output. Higher -> more variation. + Aleatoriedad de la salida del modelo. Mayor -> más variación. + + + Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. - La temperatura aumenta las probabilidades de elegir tokens menos probables. + La temperatura aumenta las probabilidades de elegir tokens menos probables. NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles. - - - - - Top-P - Top-P - - - - - Nucleus Sampling factor. Lower -> more predicatable. - Factor de muestreo de núcleo. Menor -> más predecible. - - - - - Only the most likely tokens up to a total probability of top_p can be chosen. + + + + + Top-P + Top-P + + + + + Nucleus Sampling factor. Lower -> more predicatable. + Factor de muestreo de núcleo. Menor -> más predecible. + + + Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. - Solo se pueden elegir los tokens más probables hasta una probabilidad total + Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p. NOTA: Evita elegir tokens altamente improbables. - - - - - Min-P - Min-P - - - - - Minimum token probability. Higher -> more predictable. - Probabilidad mínima del token. Mayor -> más predecible. - - - - - Sets the minimum relative probability for a token to be considered. - Establece la probabilidad relativa mínima para que un token sea + + + + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. + + + + + + Must contain the string "%1" to be replaced with the user's input. + + + + + + Maximum combined prompt/response tokens before information is lost. +Using more context than the model was trained on will yield poor results. +NOTE: Does not take effect until you reload the model. + + + + + + Temperature increases the chances of choosing less likely tokens. +NOTE: Higher temperature gives more creative but less predictable outputs. + + + + + + Only the most likely tokens up to a total probability of top_p can be chosen. +NOTE: Prevents choosing highly unlikely tokens. + + + + + + Min-P + Min-P + + + + + Minimum token probability. Higher -> more predictable. + Probabilidad mínima del token. Mayor -> más predecible. + + + + + Sets the minimum relative probability for a token to be considered. + Establece la probabilidad relativa mínima para que un token sea considerado. - - - - - Top-K - Top-K - - - - - Size of selection pool for tokens. - Tamaño del grupo de selección para tokens. - - - - - Only the top K most likely tokens will be chosen from. - Solo se elegirán los K tokens más probables. - - - - - Max Length - Longitud máxima - - - - - Maximum response length, in tokens. - Longitud máxima de respuesta, en tokens. - - - - - Prompt Batch Size - Tamaño del lote de indicaciones - - - - - The batch size used for prompt processing. - El tamaño del lote utilizado para el procesamiento de indicaciones. - - - - - Amount of prompt tokens to process at once. + + + + + Top-K + Top-K + + + + + Size of selection pool for tokens. + Tamaño del grupo de selección para tokens. + + + + + Only the top K most likely tokens will be chosen from. + Solo se elegirán los K tokens más probables. + + + + + Max Length + Longitud máxima + + + + + Maximum response length, in tokens. + Longitud máxima de respuesta, en tokens. + + + + + Prompt Batch Size + Tamaño del lote de indicaciones + + + + + The batch size used for prompt processing. + El tamaño del lote utilizado para el procesamiento de indicaciones. + + + + + Amount of prompt tokens to process at once. +NOTE: Higher values can speed up reading prompts but will use more RAM. + + + + + + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. +Lower values increase CPU load and RAM usage, and make inference slower. +NOTE: Does not take effect until you reload the model. + + + + Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. - Cantidad de tokens de indicación para procesar a la vez. + Cantidad de tokens de indicación para procesar a la vez. NOTA: Valores más altos pueden acelerar la lectura de indicaciones pero usarán más RAM. - - - - Repeat Penalty - Penalización por repetición - - - - - Repetition penalty factor. Set to 1 to disable. - Factor de penalización por repetición. Establecer a 1 para desactivar. - - - - - Repeat Penalty Tokens - Tokens de penalización por repetición - - - - - Number of previous tokens used for penalty. - Número de tokens anteriores utilizados para la penalización. - - - - - GPU Layers - Capas de GPU - - - - - Number of model layers to load into VRAM. - Número de capas del modelo a cargar en la VRAM. - - - - - How many model layers to load into VRAM. Decrease this if GPT4All runs out of + + + + + Repeat Penalty + Penalización por repetición + + + + + Repetition penalty factor. Set to 1 to disable. + Factor de penalización por repetición. Establecer a 1 para desactivar. + + + + + Repeat Penalty Tokens + Tokens de penalización por repetición + + + + + Number of previous tokens used for penalty. + Número de tokens anteriores utilizados para la penalización. + + + + + GPU Layers + Capas de GPU + + + + + Number of model layers to load into VRAM. + Número de capas del modelo a cargar en la VRAM. + + + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. - Cuántas capas del modelo cargar en la VRAM. Disminuye esto si GPT4All se + Cuántas capas del modelo cargar en la VRAM. Disminuye esto si GPT4All se queda sin VRAM al cargar este modelo. Valores más bajos aumentan la carga de CPU y el uso de RAM, y hacen la inferencia más lenta. NOTA: No tiene efecto hasta que recargues el modelo. - - - - ModelsView - - - - No Models Installed - No hay modelos instalados - - - - - Install a model to get started using GPT4All - Instala un modelo para empezar a usar GPT4All - - - - - - - + Add Model - + Agregar modelo - - - - - Shows the add model view - Muestra la vista de agregar modelo - - - - - Installed Models - Modelos instalados - - - - - Locally installed chat models - Modelos de chat instalados localmente - - - - - Model file - Archivo del modelo - - - - - Model file to be downloaded - Archivo del modelo a descargar - - - - - Description - Descripción - - - - - File description - Descripción del archivo - - - - - Cancel - Cancelar - - - - - Resume - Reanudar - - - - - Stop/restart/start the download - Detener/reiniciar/iniciar la descarga - - - - - Remove - Eliminar - - - - - Remove model from filesystem - Eliminar modelo del sistema de archivos - - - - - - - Install - Instalar - - - - - Install online model - Instalar modelo en línea - - - - - <strong><font size="1"><a + + + + ModelsView + + + + No Models Installed + No hay modelos instalados + + + + + Install a model to get started using GPT4All + Instala un modelo para empezar a usar GPT4All + + + + + + + + Add Model + + Agregar modelo + + + + + Shows the add model view + Muestra la vista de agregar modelo + + + + + Installed Models + Modelos instalados + + + + + Locally installed chat models + Modelos de chat instalados localmente + + + + + Model file + Archivo del modelo + + + + + Model file to be downloaded + Archivo del modelo a descargar + + + + + Description + Descripción + + + + + File description + Descripción del archivo + + + + + Cancel + Cancelar + + + + + Resume + Reanudar + + + + + Stop/restart/start the download + Detener/reiniciar/iniciar la descarga + + + + + Remove + Eliminar + + + + + Remove model from filesystem + Eliminar modelo del sistema de archivos + + + + + + + Install + Instalar + + + + + Install online model + Instalar modelo en línea + + + <strong><font size="1"><a href="#error">Error</a></strong></font> - <strong><font size="1"><a + <strong><font size="1"><a href="#error">Error</a></strong></font> - - - - - <strong><font size="2">WARNING: Not recommended for your + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ADVERTENCIA: No recomendado + <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font> - - - - - %1 GB - %1 GB - - - - - ? - ? - - - - - Describes an error that occurred when downloading - Describe un error que ocurrió durante la descarga - - - - - Error for incompatible hardware - Error por hardware incompatible - - - - - Download progressBar - Barra de progreso de descarga - - - - - Shows the progress made in the download - Muestra el progreso realizado en la descarga - - - - - Download speed - Velocidad de descarga - - - - - Download speed in bytes/kilobytes/megabytes per second - Velocidad de descarga en bytes/kilobytes/megabytes por segundo - - - - - Calculating... - Calculando... - - - - - - - Whether the file hash is being calculated - Si se está calculando el hash del archivo - - - - - Busy indicator - Indicador de ocupado - - - - - Displayed when the file hash is being calculated - Se muestra cuando se está calculando el hash del archivo - - - - - enter $API_KEY - ingrese $API_KEY - - - - - File size - Tamaño del archivo - - - - - RAM required - RAM requerida - - - - - Parameters - Parámetros - - - - - Quant - Cuantificación - - - - - Type - Tipo - - - - MyFancyLink - - - - Fancy link - Enlace elegante - - - - - A stylized link - Un enlace estilizado - - - - MySettingsStack - - - - Please choose a directory - Por favor, elija un directorio - - - - MySettingsTab - - - - Restore Defaults - Restaurar valores predeterminados - - - - - Restores settings dialog to a default state - Restaura el diálogo de configuración a su estado predeterminado - - - - NetworkDialog - - - - Contribute data to the GPT4All Opensource Datalake. - Contribuir datos al Datalake de código abierto de GPT4All. - - - - - By enabling this feature, you will be able to participate in the democratic + + + + + %1 GB + %1 GB + + + + + ? + ? + + + + + Describes an error that occurred when downloading + Describe un error que ocurrió durante la descarga + + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + + + + + + Error for incompatible hardware + Error por hardware incompatible + + + + + Download progressBar + Barra de progreso de descarga + + + + + Shows the progress made in the download + Muestra el progreso realizado en la descarga + + + + + Download speed + Velocidad de descarga + + + + + Download speed in bytes/kilobytes/megabytes per second + Velocidad de descarga en bytes/kilobytes/megabytes por segundo + + + + + Calculating... + Calculando... + + + + + + + Whether the file hash is being calculated + Si se está calculando el hash del archivo + + + + + Busy indicator + Indicador de ocupado + + + + + Displayed when the file hash is being calculated + Se muestra cuando se está calculando el hash del archivo + + + + + enter $API_KEY + ingrese $API_KEY + + + + + File size + Tamaño del archivo + + + + + RAM required + RAM requerida + + + + + Parameters + Parámetros + + + + + Quant + Cuantificación + + + + + Type + Tipo + + + + MyFancyLink + + + + Fancy link + Enlace elegante + + + + + A stylized link + Un enlace estilizado + + + + MySettingsStack + + + + Please choose a directory + Por favor, elija un directorio + + + + MySettingsTab + + + + Restore Defaults + Restaurar valores predeterminados + + + + + Restores settings dialog to a default state + Restaura el diálogo de configuración a su estado predeterminado + + + + NetworkDialog + + + + Contribute data to the GPT4All Opensource Datalake. + Contribuir datos al Datalake de código abierto de GPT4All. + + + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. @@ -3004,7 +2533,7 @@ used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - Al habilitar esta función, podrá participar en el proceso democrático de + Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. @@ -3020,225 +2549,179 @@ utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. - - - - - Terms for opt-in - Términos para optar por participar - - - - - Describes what will happen when you opt-in - Describe lo que sucederá cuando opte por participar - - - - - Please provide a name for attribution (optional) - Por favor, proporcione un nombre para la atribución (opcional) - - - - - Attribution (optional) - Atribución (opcional) - - - - - Provide attribution - Proporcionar atribución - - - - - Enable - Habilitar - - - - - Enable opt-in - Habilitar participación - - - - - Cancel - Cancelar - - - - - Cancel opt-in - Cancelar participación - - - - NewVersionDialog - - - - New version is available - Nueva versión disponible - - - - - Update - Actualizar - - - - - Update to new version - Actualizar a nueva versión - - - - PopupDialog - - - - Reveals a shortlived help balloon - Muestra un globo de ayuda de corta duración - - - - - Busy indicator - Indicador de ocupado - - - - - Displayed when the popup is showing busy - Se muestra cuando la ventana emergente está ocupada - - - - SettingsView - - - - - - Settings - Configuración - - - - - Contains various application settings - Contiene varias configuraciones de la aplicación - - - - - Application - Aplicación - - - - - Model - Modelo - - - - - LocalDocs - DocumentosLocales - - - - StartupDialog - - - - Welcome! - ¡Bienvenido! - - - - - ### Release notes + + + + + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! + + + + + + Terms for opt-in + Términos para optar por participar + + + + + Describes what will happen when you opt-in + Describe lo que sucederá cuando opte por participar + + + + + Please provide a name for attribution (optional) + Por favor, proporcione un nombre para la atribución (opcional) + + + + + Attribution (optional) + Atribución (opcional) + + + + + Provide attribution + Proporcionar atribución + + + + + Enable + Habilitar + + + + + Enable opt-in + Habilitar participación + + + + + Cancel + Cancelar + + + + + Cancel opt-in + Cancelar participación + + + + NewVersionDialog + + + + New version is available + Nueva versión disponible + + + + + Update + Actualizar + + + + + Update to new version + Actualizar a nueva versión + + + + PopupDialog + + + + Reveals a shortlived help balloon + Muestra un globo de ayuda de corta duración + + + + + Busy indicator + Indicador de ocupado + + + + + Displayed when the popup is showing busy + Se muestra cuando la ventana emergente está ocupada + + + + SettingsView + + + + + + Settings + Configuración + + + + + Contains various application settings + Contiene varias configuraciones de la aplicación + + + + + Application + Aplicación + + + + + Model + Modelo + + + + + LocalDocs + DocumentosLocales + + + + StartupDialog + + + + Welcome! + ¡Bienvenido! + + + ### Release notes %1### Contributors %2 - ### Notas de la versión + ### Notas de la versión %1### Contribuidores %2 - - - - - Release notes - Notas de la versión - - - - - Release notes for this version - Notas de la versión para esta versión - - - - - ### Opt-ins for anonymous usage analytics and datalake + + + + + Release notes + Notas de la versión + + + + + Release notes for this version + Notas de la versión para esta versión + + + ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. @@ -3261,7 +2744,7 @@ attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - ### Aceptación para análisis de uso anónimo y datalake + ### Aceptación para análisis de uso anónimo y datalake Al habilitar estas funciones, podrá participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. @@ -3283,228 +2766,200 @@ información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. - - - - - Terms for opt-in - Términos para aceptar - - - - - Describes what will happen when you opt-in - Describe lo que sucederá cuando acepte - - - - - - - Opt-in for anonymous usage statistics - Aceptar estadísticas de uso anónimas - - - - - - - Yes - - - - - - Allow opt-in for anonymous usage statistics - Permitir aceptación de estadísticas de uso anónimas - - - - - - - No - No - - - - - Opt-out for anonymous usage statistics - Rechazar estadísticas de uso anónimas - - - - - Allow opt-out for anonymous usage statistics - Permitir rechazo de estadísticas de uso anónimas - - - - - - - Opt-in for network - Aceptar para la red - - - - - Allow opt-in for network - Permitir aceptación para la red - - - - - Allow opt-in anonymous sharing of chats to the GPT4All Datalake - Permitir compartir anónimamente los chats con el Datalake de GPT4All - - - - - Opt-out for network - Rechazar para la red - - - - - Allow opt-out anonymous sharing of chats to the GPT4All Datalake - Permitir rechazar el compartir anónimo de chats con el Datalake de GPT4All - - - - SwitchModelDialog - - - - <b>Warning:</b> changing the model will erase the current + + + + + ### Release notes +%1### Contributors +%2 + + + + + + ### Opt-ins for anonymous usage analytics and datalake +By enabling these features, you will be able to participate in the democratic process of training a +large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All +Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you +can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. +You should have no expectation of chat privacy when this feature is enabled. You should; however, have +an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone +to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all +attribution information attached to your data and you will be credited as a contributor to any GPT4All +model release that uses your data! + + + + + + Terms for opt-in + Términos para aceptar + + + + + Describes what will happen when you opt-in + Describe lo que sucederá cuando acepte + + + + + + + Opt-in for anonymous usage statistics + Aceptar estadísticas de uso anónimas + + + + + + + Yes + + + + + + Allow opt-in for anonymous usage statistics + Permitir aceptación de estadísticas de uso anónimas + + + + + + + No + No + + + + + Opt-out for anonymous usage statistics + Rechazar estadísticas de uso anónimas + + + + + Allow opt-out for anonymous usage statistics + Permitir rechazo de estadísticas de uso anónimas + + + + + + + Opt-in for network + Aceptar para la red + + + + + Allow opt-in for network + Permitir aceptación para la red + + + + + Allow opt-in anonymous sharing of chats to the GPT4All Datalake + Permitir compartir anónimamente los chats con el Datalake de GPT4All + + + + + Opt-out for network + Rechazar para la red + + + + + Allow opt-out anonymous sharing of chats to the GPT4All Datalake + Permitir rechazar el compartir anónimo de chats con el Datalake de GPT4All + + + + SwitchModelDialog + + <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>Advertencia:</b> cambiar el modelo borrará la conversación + <b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Desea continuar? - - - - - Continue - Continuar - - - - - Continue with model loading - Continuar con la carga del modelo - - - - - - - Cancel - Cancelar - - - - ThumbsDownDialog - - - - Please edit the text below to provide a better response. (optional) - Por favor, edite el texto a continuación para proporcionar una mejor + + + + + <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? + + + + + + Continue + Continuar + + + + + Continue with model loading + Continuar con la carga del modelo + + + + + + + Cancel + Cancelar + + + + ThumbsDownDialog + + + + Please edit the text below to provide a better response. (optional) + Por favor, edite el texto a continuación para proporcionar una mejor respuesta. (opcional) - - - - - Please provide a better response... - Por favor, proporcione una mejor respuesta... - - - - - Submit - Enviar - - - - - Submits the user's response - Envía la respuesta del usuario - - - - - Cancel - Cancelar - - - - - Closes the response dialog - Cierra el diálogo de respuesta - - - - main - - - - + + + + + Please provide a better response... + Por favor, proporcione una mejor respuesta... + + + + + Submit + Enviar + + + + + Submits the user's response + Envía la respuesta del usuario + + + + + Cancel + Cancelar + + + + + Closes the response dialog + Cierra el diálogo de respuesta + + + + main + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet @@ -3513,7 +2968,7 @@ model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - + <h3>Se encontró un error al iniciar:</h3><br><i>"Hardware incompatible detectado."</i><br><br>Desafortunadamente, su CPU no cumple @@ -3523,26 +2978,22 @@ hardware a una CPU más moderna.<br><br>Vea aquí para más información: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - - - - - GPT4All v%1 - GPT4All v%1 - - - - - <h3>Encountered an error starting + + + + + GPT4All v%1 + GPT4All v%1 + + + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. - <h3>Se encontró un error al + <h3>Se encontró un error al iniciar:</h3><br><i>"No se puede acceder al archivo de configuración."</i><br><br>Desafortunadamente, algo está impidiendo que el programa acceda al archivo de configuración. Esto podría ser @@ -3550,162 +3001,150 @@ aplicación donde se encuentra el archivo de configuración. Consulte nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda. - - - - - Connection to datalake failed. - La conexión al datalake falló. - - - - - Saving chats. - Guardando chats. - - - - - Network dialog - Diálogo de red - - - - - opt-in to share feedback/conversations - optar por compartir comentarios/conversaciones - - - - - Home view - Vista de inicio - - - - - Home view of application - Vista de inicio de la aplicación - - - - - Home - Inicio - - - - - Chat view - Vista de chat - - - - - Chat view to interact with models - Vista de chat para interactuar con modelos - - - - - Chats - Chats - - - - - - - Models - Modelos - - - - - Models view for installed models - Vista de modelos para modelos instalados - - - - - - - LocalDocs - DocumentosLocales - - - - - LocalDocs view to configure and use local docs - Vista de DocumentosLocales para configurar y usar documentos locales - - - - - - - Settings - Configuración - - - - - Settings view for application configuration - Vista de configuración para la configuración de la aplicación - - - - - The datalake is enabled - El datalake está habilitado - - - - - Using a network model - Usando un modelo de red - - - - - Server mode is enabled - El modo servidor está habilitado - - - - - Installed models - Modelos instalados - - - - - View of installed models - Vista de modelos instalados - - - \ No newline at end of file + + + + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + + + + + + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. + + + + + + Connection to datalake failed. + La conexión al datalake falló. + + + + + Saving chats. + Guardando chats. + + + + + Network dialog + Diálogo de red + + + + + opt-in to share feedback/conversations + optar por compartir comentarios/conversaciones + + + + + Home view + Vista de inicio + + + + + Home view of application + Vista de inicio de la aplicación + + + + + Home + Inicio + + + + + Chat view + Vista de chat + + + + + Chat view to interact with models + Vista de chat para interactuar con modelos + + + + + Chats + Chats + + + + + + + Models + Modelos + + + + + Models view for installed models + Vista de modelos para modelos instalados + + + + + + + LocalDocs + DocumentosLocales + + + + + LocalDocs view to configure and use local docs + Vista de DocumentosLocales para configurar y usar documentos locales + + + + + + + Settings + Configuración + + + + + Settings view for application configuration + Vista de configuración para la configuración de la aplicación + + + + + The datalake is enabled + El datalake está habilitado + + + + + Using a network model + Usando un modelo de red + + + + + Server mode is enabled + El modo servidor está habilitado + + + + + Installed models + Modelos instalados + + + + + View of installed models + Vista de modelos instalados + + + diff --git a/gpt4all-chat/translations/gpt4all_zh_CN.ts b/gpt4all-chat/translations/gpt4all_zh_CN.ts index e6a6128a..b1eeb9f8 100644 --- a/gpt4all-chat/translations/gpt4all_zh_CN.ts +++ b/gpt4all-chat/translations/gpt4all_zh_CN.ts @@ -1,6 +1,6 @@ - + AddCollectionView @@ -103,10 +103,8 @@ 用于发现和筛选可下载模型的文本字段 - - Searching · - 搜索中 + 搜索中 @@ -145,10 +143,8 @@ 近期 - - Sort by: - 排序: + 排序: @@ -163,10 +159,8 @@ 倒序 - - Sort dir: - 排序目录: + 排序目录: @@ -174,23 +168,49 @@ None + + Limit: + 限制: + + + Network error: could not retrieve http://gpt4all.io/models/models3.json + 网络问题:无法访问 http://gpt4all.io/models/models3.json + + + + + Searching · %1 + + + + + + Sort by: %1 + + + + + + Sort dir: %1 + + - Limit: - 限制: + Limit: %1 + - Network error: could not retrieve http://gpt4all.io/models/models3.json - 网络问题:无法访问 http://gpt4all.io/models/models3.json + Network error: could not retrieve %1 + - + - + Busy indicator 繁忙程度 @@ -275,124 +295,140 @@ 安装在线模型 - - + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + + + + + + %1 GB + + + + + + + + ? + + + <a href="#error">Error</a> - <a href="#error">错误</a> + <a href="#error">错误</a> - - + + Describes an error that occurred when downloading 描述下载过程中发生的错误 - - <strong><font size="2">WARNING: Not recommended for your hardware. - <strong><font size="2">警告: 你的硬件不推荐. + <strong><font size="2">警告: 你的硬件不推荐. - - Model requires more memory ( - 需要更多内存( + 需要更多内存( - - GB) than your system has available ( - 你的系统需要 ( + 你的系统需要 ( - - + + Error for incompatible hardware 硬件不兼容的错误 - - + + Download progressBar 下载进度 - - + + Shows the progress made in the download 显示下载进度 - - + + Download speed 下载速度 - - + + Download speed in bytes/kilobytes/megabytes per second 下载速度 b/kb/mb /s - - + + Calculating... 计算中 - - - - + + + + Whether the file hash is being calculated 是否正在计算文件哈希 - - + + Displayed when the file hash is being calculated 在计算文件哈希时显示 - - + + enter $API_KEY 输入$API_KEY - - + + File size 文件大小 - - + + RAM required RAM 需要 - - GB - GB + GB - - + + Parameters 参数 - - + + Quant 量化 - - + + Type 类型 @@ -493,134 +529,176 @@ 应用中的文本大小。 - - + + + Language and Locale + + + + + + The language and locale you wish to use. + + + + + Device 设备 - - + + The compute device used for text generation. "Auto" uses Vulkan or Metal. 用于文本生成的计算设备. "自动" 使用 Vulkan or Metal. - - + + Default Model 默认模型 - - + + The preferred model for new chats. Also used as the local server fallback. 新聊天的首选模式。也用作本地服务器回退。 - - + + + Suggestion Mode + + + + + + Generate suggested follow-up questions at the end of responses. + + + + + + When chatting with LocalDocs + + + + + + Whenever possible + + + + + + Never + + + + + Download Path 下载目录 - - + + Where to store local models and the LocalDocs database. 本地模型和本地文档数据库存储目录 - - + + Browse 查看 - - + + Choose where to save model files 模型下载目录 - - + + Enable Datalake 开启数据湖 - - + + Send chats and feedback to the GPT4All Open-Source Datalake. 发送对话和反馈给GPT4All 的开源数据湖。 - - + + Advanced 高级 - - + + CPU Threads CPU线程 - - + + The number of CPU threads used for inference and embedding. 用于推理和嵌入的CPU线程数 - - + + Save Chat Context 保存对话上下文 - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. 保存模型's 状态以提供更快加载速度. 警告: 需用 ~2GB 每个对话. - - + + Enable Local Server 开启本地服务 - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. 将OpenAI兼容服务器暴露给本地主机。警告:导致资源使用量增加。 - - + + API Server Port API 服务端口 - - + + The port to use for the local server. Requires restart. 使用本地服务的端口,需要重启 - - + + Check For Updates 检查更新 - - + + Manually check for an update to GPT4All. 手动检查更新 - - + + Updates 更新 @@ -628,7 +706,7 @@ Chat - + New Chat 新对话 @@ -639,16 +717,12 @@ 服务器对话 - - Prompt: - 提示词: + 提示词: - - Response: - 响应: + 响应: @@ -762,16 +836,12 @@ ChatView - - <h3>Encountered an error loading model:</h3><br> - <h3>加载模型时遇到错误:</h3><br> + <h3>加载模型时遇到错误:</h3><br> - - <br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - lt;br><br>模型加载失败可能由多种原因造成,但最常见的原因包括文件格式错误、下载不完整或损坏、文件类型错误、系统 RAM 不足或模型类型不兼容。以下是解决该问题的一些建议:<br><ul><li>确保模型文件具有兼容的格式和类型<li>检查下载文件夹中的模型文件是否完整<li>您可以在设置对话框中找到下载文件夹<li>如果您已侧载模型,请通过检查 md5sum 确保文件未损坏<li>在我们的<a href="https://docs.gpt4all.io/">文档</a>中了解有关支持哪些模型的更多信息对于 gui<li>查看我们的<a href="https://discord.gg/4M2QFmTt2k">discord 频道</a> 获取帮助 + lt;br><br>模型加载失败可能由多种原因造成,但最常见的原因包括文件格式错误、下载不完整或损坏、文件类型错误、系统 RAM 不足或模型类型不兼容。以下是解决该问题的一些建议:<br><ul><li>确保模型文件具有兼容的格式和类型<li>检查下载文件夹中的模型文件是否完整<li>您可以在设置对话框中找到下载文件夹<li>如果您已侧载模型,请通过检查 md5sum 确保文件未损坏<li>在我们的<a href="https://docs.gpt4all.io/">文档</a>中了解有关支持哪些模型的更多信息对于 gui<li>查看我们的<a href="https://discord.gg/4M2QFmTt2k">discord 频道</a> 获取帮助 @@ -804,26 +874,8 @@ 复制代码到剪切板 - - - - - - - - - - - - - - - - - - Response: - 响应: + 响应: @@ -886,297 +938,335 @@ 没找到: %1 - - - - Reload · - 重载· + 重载· - - Loading · - 载入中· + 载入中· - - + + The top item is the current model 当前模型的最佳选项 - - - - + + + + LocalDocs 本地文档 - - + + Add documents 添加文档 - - + + add collections of documents to the chat 将文档集合添加到聊天中 - - Load · - 加载· + 加载· - - (default) → - (默认) → + (默认) → - - + + Load the default model 载入默认模型 - - + + Loads the default model which can be changed in settings 加载默认模型,可以在设置中更改 - - + + No Model Installed 没有下载模型 - - + + GPT4All requires that you install at least one model to get started GPT4All要求您至少安装一个模型才能开始 - - + + Install a Model 下载模型 - - + + Shows the add model view 查看添加的模型 - - + + Conversation with the model 使用此模型对话 - - + + prompt / response pairs from the conversation 对话中的提示/响应对 - - + + GPT4All GPT4All - - + + You - - Busy indicator - 繁忙程度 + 繁忙程度 - - The model is thinking - 模型在思考 + 模型在思考 - - + + recalculating context ... 重新生成上下文... - - + + response stopped ... 响应停止... - - retrieving localdocs: - 检索本地文档: + 检索本地文档: - - searching localdocs: - 检索本地文档: + 检索本地文档: - - + + processing ... 处理中 - - + + generating response ... 响应中... - - - - + + + generating questions ... + + + + + + + Copy 复制 - - + + Copy Message 复制内容 - - + + Disable markdown 不允许markdown - - + + Enable markdown 允许markdown - - + + Thumbs up 点赞 - - + + Gives a thumbs up to the response 点赞响应 - - + + Thumbs down 点踩 - - + + Opens thumbs down dialog 打开点踩对话框 - - + + %1 Sources %1 资源 - - + + + Suggested follow-ups + + + + + Erase and reset chat session 擦除并重置聊天会话 - - + + Copy chat session to clipboard 复制对话到剪切板 - - + + Redo last chat response 重新生成上个响应 - - + + + Stop generating + + + + + Stop the current response generation 停止当前响应 - - + + Reloads the model 重载模型 - - + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help + + + + + + + + Reload · %1 + + + + + + Loading · %1 + + + + + + Load · %1 (default) → + + + + + + retrieving localdocs: %1 ... + + + + + + searching localdocs: %1 ... + + + + + Send a message... 发送消息... - - + + Load a model to continue... 选择模型并继续 - - + + Send messages/prompts to the model 发送消息/提示词给模型 - - + + Cut 剪切 - - + + Paste 粘贴 - - + + Select All 全选 - - + + Send message 发送消息 - - + + Sends the message/prompt contained in textfield to the model 将文本框中包含的消息/提示发送给模型 @@ -1293,44 +1383,44 @@ model to get started GPT4All新闻 - - + + Release Notes 发布日志 - - + + Documentation 文档 - - + + Discord Discord - - + + X (Twitter) X (Twitter) - - + + Github Github - - + + GPT4All.io GPT4All.io - - + + Subscribe to Newsletter 订阅信息 @@ -1654,47 +1744,67 @@ model to get started ModelList - + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <ul><li>需要个人 OpenAI API 密钥。</li><li>警告:将把您的聊天内容发送给 OpenAI!</li><li>您的 API 密钥将存储在磁盘上</li><li>仅用于与 OpenAI 通信</li><li>您可以在此处<a href="https://platform.openai.com/account/api-keys">申请 API 密钥。</a></li> - + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 + + + + + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 + + + + + <strong>Mistral Tiny model</strong><br> %1 + + + + + <strong>Mistral Small model</strong><br> %1 + + + + + <strong>Mistral Medium model</strong><br> %1 + + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> - <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> - + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <br><br><i>* 即使您为ChatGPT-4向OpenAI付款,这也不能保证API密钥访问。联系OpenAI获取更多信息。 - <strong>OpenAI's ChatGPT model GPT-4</strong><br> - <strong>OpenAI's ChatGPT model GPT-4</strong><br> + <strong>OpenAI's ChatGPT model GPT-4</strong><br> - + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> - <strong>Mistral Tiny model</strong><br> - <strong>Mistral Tiny model</strong><br> + <strong>Mistral Tiny model</strong><br> - <strong>Mistral Small model</strong><br> - <strong>Mistral Small model</strong><br> + <strong>Mistral Small model</strong><br> - <strong>Mistral Medium model</strong><br> - <strong>Mistral Medium model</strong><br> + <strong>Mistral Medium model</strong><br> - + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> @@ -1714,81 +1824,103 @@ model to get started 模型设置 - - + + Clone 克隆 - - + + Remove 删除 - - + + Name 名称 - - + + Model File 模型文件 - - + + System Prompt 系统提示词 - - + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. 每次对话开始时的前缀 - - + + Prompt Template 提示词模版 - - + + The template that wraps every prompt. 包装每个提示的模板 - - + + Must contain the string "%1" to be replaced with the user's input. 必须包含字符串 "%1" 替换为用户的's 输入. - - Add optional image - 添加可选图片 + 添加可选图片 + + + + + Chat Name Prompt + + + + + + Prompt used to automatically generate chat names. + + + + + + Suggested FollowUp Prompt + - - + + + Prompt used to generate suggested follow-up questions. + + + + + Context Length 上下文长度 - - + + Number of input and output tokens the model sees. 模型看到的输入和输出令牌的数量。 - - + + Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. @@ -1797,152 +1929,152 @@ NOTE: Does not take effect until you reload the model. 注意:在重新加载模型之前不会生效。 - - + + Temperature 温度 - - + + Randomness of model output. Higher -> more variation. 模型输出的随机性。更高->更多的变化。 - - + + Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. 温度增加了选择不太可能的token的机会。 注:温度越高,输出越有创意,但预测性越低。 - - + + Top-P Top-P - - + + Nucleus Sampling factor. Lower -> more predicatable. 核子取样系数。较低->更具可预测性。 - - + + Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. 只能选择总概率高达top_p的最有可能的令牌。 注意:防止选择极不可能的token。 - - + + Min-P Min-P - - + + Minimum token probability. Higher -> more predictable. 最小令牌概率。更高 -> 更可预测。 - - + + Sets the minimum relative probability for a token to be considered. 设置被考虑的标记的最小相对概率。 - - + + Top-K Top-K - - + + Size of selection pool for tokens. 令牌选择池的大小。 - - + + Only the top K most likely tokens will be chosen from. 仅从最可能的前 K 个标记中选择 - - + + Max Length 最大长度 - - + + Maximum response length, in tokens. 最大响应长度(以令牌为单位) - - + + Prompt Batch Size 提示词大小 - - + + The batch size used for prompt processing. 用于快速处理的批量大小。 - - + + Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. 一次要处理的提示令牌数量。 注意:较高的值可以加快读取提示,但会使用更多的RAM。 - - + + Repeat Penalty 重复惩罚 - - + + Repetition penalty factor. Set to 1 to disable. 重复处罚系数。设置为1可禁用。 - - + + Repeat Penalty Tokens 重复惩罚数 - - + + Number of previous tokens used for penalty. 用于惩罚的先前令牌数量。 - - + + GPU Layers GPU 层 - - + + Number of model layers to load into VRAM. 要加载到VRAM中的模型层数。 - - + + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. @@ -2060,130 +2192,144 @@ NOTE: Does not take effect until you reload the model. 安装在线模型 - - + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + + + + + + %1 GB + + + + + + ? + + + <a href="#error">Error</a> - <a href="#错误">错误</a> + <a href="#错误">错误</a> - - + + Describes an error that occurred when downloading 描述下载时发生的错误 - - <strong><font size="2">WARNING: Not recommended for your hardware. - <strong><font size="2">警告: 你的硬件不推荐. + <strong><font size="2">警告: 你的硬件不推荐. - - Model requires more memory ( - 模型需要更多内存( + 模型需要更多内存( - - GB) than your system has available ( - GB) 你的系统需要 ( + GB) 你的系统需要 ( - - + + Error for incompatible hardware 硬件不兼容的错误 - - + + Download progressBar 下载进度 - - + + Shows the progress made in the download 显示下载进度 - - + + Download speed 下载速度 - - + + Download speed in bytes/kilobytes/megabytes per second 下载速度 b/kb/mb /s - - + + Calculating... 计算中... - - - - + + + + Whether the file hash is being calculated 是否正在计算文件哈希 - - + + Busy indicator 繁忙程度 - - + + Displayed when the file hash is being calculated 在计算文件哈希时显示 - - + + enter $API_KEY 输入 $API_KEY - - + + File size 文件大小 - - + + RAM required 需要 RAM - - GB - GB + GB - - + + Parameters 参数 - - + + Quant 量化 - - + + Type 类型 @@ -2390,34 +2536,38 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O 欢迎! - - ### Release notes - ### 发布日志 + ### 发布日志 - - ### Contributors - ### 贡献者 + ### 贡献者 + + + + + ### Release notes +%1### Contributors +%2 + - - + + Release notes 发布日志 - - + + Release notes for this version 本版本发布日志 - - + + ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. @@ -2442,88 +2592,88 @@ model release that uses your data! 模型发布的贡献者! - - + + Terms for opt-in 选择加入选项 - - + + Describes what will happen when you opt-in 描述选择加入时会发生的情况 - - - - + + + + Opt-in for anonymous usage statistics 允许选择加入匿名使用统计数据 - - - - + + + + Yes - - + + Allow opt-in for anonymous usage statistics 允许选择加入匿名使用统计数据 - - - - + + + + No - - + + Opt-out for anonymous usage statistics 退出匿名使用统计数据 - - + + Allow opt-out for anonymous usage statistics 允许选择退出匿名使用统计数据 - - - - + + + + Opt-in for network 加入网络 - - + + Allow opt-in for network 允许选择加入网络 - - + + Allow opt-in anonymous sharing of chats to the GPT4All Datalake 允许选择加入匿名共享聊天至 GPT4All 数据湖 - - + + Opt-out for network 取消网络 - - + + Allow opt-out anonymous sharing of chats to the GPT4All Datalake 允许选择退出将聊天匿名共享至 GPT4All 数据湖 @@ -2599,90 +2749,78 @@ model release that uses your data! main - - GPT4All v - GPT4All v + GPT4All v - - - - <h3>Encountered an error starting up:</h3><br> - <h3>启动时遇到错误::</h3><br> + <h3>启动时遇到错误::</h3><br> - - <i>"Incompatible hardware detected."</i> - <i>"检测到硬件不兼容"</i> + <i>"检测到硬件不兼容"</i> - - <br><br>Unfortunately, your CPU does not meet the minimal requirements to run - <br><br>您的CPU不符合运行的最低要求 + <br><br>您的CPU不符合运行的最低要求 - - this program. In particular, it does not support AVX intrinsics which this - 这个问题是因为它不支持AVX 版本 + 这个问题是因为它不支持AVX 版本 - - program requires to successfully run a modern large language model. - 程序需要成功运行现代大型语言模型 + 程序需要成功运行现代大型语言模型 - - The only solution at this time is to upgrade your hardware to a more modern CPU. - 目前唯一的解决方案是将硬件升级到更现代化的CPU。 + 目前唯一的解决方案是将硬件升级到更现代化的CPU。 - - <br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions"> - <br><br>请参阅此处了解更多信息: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions"> + <br><br>请参阅此处了解更多信息: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions"> - - https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - - <i>"Inability to access settings file."</i> - <i>"无法访问设置文件。"</i> + <i>"无法访问设置文件。"</i> - - <br><br>Unfortunately, something is preventing the program from accessing - <br><br>不幸的是,有什么东西阻止了程序访问 + <br><br>不幸的是,有什么东西阻止了程序访问 - - the settings file. This could be caused by incorrect permissions in the local - 设置文件。这可能是由于本地中的权限不正确造成的 + 设置文件。这可能是由于本地中的权限不正确造成的 - - app config directory where the settings file is located. - 设置文件所在的应用程序配置目录 + 设置文件所在的应用程序配置目录 - - Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. - 检查链接 <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> 寻求. + 检查链接 <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> 寻求. + + + + + GPT4All v%1 + + + + + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + + + + + + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. +