diff --git a/MAINTAINERS.md b/MAINTAINERS.md index 6cb65868..0a16234f 100644 --- a/MAINTAINERS.md +++ b/MAINTAINERS.md @@ -47,6 +47,10 @@ E-mail: max@nomic.ai
Discord: `@maxcembalest.` - Official documentation (gpt4all-bindings/python/docs -> https://docs.gpt4all.io/) +Thiago Ramos ([@thiagojramos](https://github.com/thiagojramos))
+E-mail: thiagojramos@outlook.com
+- pt\_BR translation + Victor Emanuel ([@SINAPSA-IC](https://github.com/SINAPSA-IC))
E-mail: contact@sinapsaro.ro
Discord: `@sinapsa_ic_56124_99632` diff --git a/gpt4all-chat/translations/gpt4all_pt_BR.ts b/gpt4all-chat/translations/gpt4all_pt_BR.ts new file mode 100644 index 00000000..97d81216 --- /dev/null +++ b/gpt4all-chat/translations/gpt4all_pt_BR.ts @@ -0,0 +1,2797 @@ + + + + + AddCollectionView + + + + ← Existing Collections + ← Minhas coleções + + + + + Add Document Collection + Adicionar Coleção de Documentos + + + + + Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. + Adicione uma pasta contendo arquivos de texto simples, PDFs ou Markdown. Configure extensões adicionais nas Configurações. + + + + + Please choose a directory + Escolha um diretório + + + + + Name + Nome + + + + + Collection name... + Nome da coleção... + + + + + Name of the collection to add (Required) + Nome da coleção (obrigatório) + + + + + Folder + Pasta + + + + + Folder path... + Caminho da pasta... + + + + + Folder path to documents (Required) + Caminho da pasta com os documentos (obrigatório) + + + + + Browse + Procurar + + + + + Create Collection + Criar Coleção + + + + AddModelView + + + + ← Existing Models + ← Meus Modelos + + + + + Explore Models + Descobrir Modelos + + + + + Discover and download models by keyword search... + Pesquisar modelos... + + + + + Text field for discovering and filtering downloadable models + Campo de texto para descobrir e filtrar modelos para download + + + + + Initiate model discovery and filtering + Pesquisar e filtrar modelos + + + + + Triggers discovery and filtering of models + Aciona a descoberta e filtragem de modelos + + + + + Default + Padrão + + + + + Likes + Curtidas + + + + + Downloads + Downloads + + + + + Recent + Recentes + + + + + Asc + Asc + + + + + Desc + Desc + + + + + None + Nenhum + + + + + Searching · %1 + Pesquisando · %1 + + + + + Sort by: %1 + Ordenar por: %1 + + + + + Sort dir: %1 + Ordenar diretório: %1 + + + + + Limit: %1 + Limite: %1 + + + + + Network error: could not retrieve %1 + Erro de rede: não foi possível obter %1 + + + + + + + Busy indicator + Indicador de processamento + + + + + Displayed when the models request is ongoing + xibido enquanto os modelos estão sendo carregados + + + + + Model file + Arquivo do modelo + + + + + Model file to be downloaded + Arquivo do modelo a ser baixado + + + + + Description + Descrição + + + + + File description + Descrição do arquivo + + + + + Cancel + Cancelar + + + + + Resume + Retomar + + + + + Download + Baixar + + + + + Stop/restart/start the download + Parar/reiniciar/iniciar o download + + + + + Remove + Remover + + + + + Remove model from filesystem + Remover modelo do sistema + + + + + + + Install + Instalar + + + + + Install online model + Instalar modelo online + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font> + + + + + %1 GB + %1 GB + + + + + + + ? + ? + + + + + Describes an error that occurred when downloading + Mostra informações sobre o erro no download + + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">Erro</a></strong></font> + + + + + Error for incompatible hardware + Aviso: Hardware não compatível + + + + + Download progressBar + Progresso do download + + + + + Shows the progress made in the download + Mostra o progresso do download + + + + + Download speed + Velocidade de download + + + + + Download speed in bytes/kilobytes/megabytes per second + Velocidade de download em bytes/kilobytes/megabytes por segundo + + + + + Calculating... + Calculando... + + + + + + + Whether the file hash is being calculated + Quando o hash do arquivo está sendo calculado + + + + + Displayed when the file hash is being calculated + Exibido durante o cálculo do hash do arquivo + + + + + enter $API_KEY + inserir $API_KEY + + + + + File size + Tamanho do arquivo + + + + + RAM required + RAM necessária + + + + + Parameters + Parâmetros + + + + + Quant + Quant + + + + + Type + Tipo + + + + ApplicationSettings + + + + Application + Aplicativo + + + + + Network dialog + Mensagens de rede + + + + + opt-in to share feedback/conversations + Compartilhar feedback e conversas + + + + + ERROR: Update system could not find the MaintenanceTool used<br> + to check for updates!<br><br> + Did you install this application using the online installer? If so,<br> + the MaintenanceTool executable should be located one directory<br> + above where this application resides on your filesystem.<br><br> + If you can't start it manually, then I'm afraid you'll have to<br> + reinstall. + ERRO: O sistema de atualização não encontrou a Ferramenta de Manutenção<br> + necessária para verificar atualizações!<br><br> + Você instalou este aplicativo usando o instalador online? Se sim,<br> + o executável da Ferramenta de Manutenção deve estar localizado um diretório<br> + acima de onde este aplicativo está instalado.<br><br> + Se você não conseguir iniciá-lo manualmente, será necessário<br> + reinstalar o aplicativo. + + + + + Error dialog + Mensagens de erro + + + + + Application Settings + Configurações + + + + + General + Geral + + + + + Theme + Tema + + + + + The application color scheme. + Esquema de cores. + + + + + Dark + Modo Escuro + + + + + Light + Modo Claro + + + + + LegacyDark + Modo escuro (legado) + + + + + Font Size + Tamanho da Fonte + + + + + The size of text in the application. + Tamanho do texto. + + + + + Small + Pequena + + + + + Medium + Médio + + + + + Large + Grande + + + + + Language and Locale + Idioma e Região + + + + + The language and locale you wish to use. + Selecione seu idioma e região. + + + + + Device + Processador + + + + + The compute device used for text generation. "Auto" uses Vulkan or Metal. + Processador usado para gerar texto. (Automático: Vulkan ou Metal). + + + + + Default Model + Modelo Padrão + + + + + The preferred model for new chats. Also used as the local server fallback. + Modelo padrão para novos chats e em caso de falha do modelo principal. + + + + + Suggestion Mode + Modo de sugestões + + + + + Generate suggested follow-up questions at the end of responses. + Sugerir perguntas após as respostas. + + + + + When chatting with LocalDocs + Ao conversar com o LocalDocs + + + + + Whenever possible + Sempre que possível + + + + + Never + Nunca + + + + + Download Path + Diretório de Download + + + + + Where to store local models and the LocalDocs database. + Pasta para modelos e banco de dados do LocalDocs. + + + + + Browse + Procurar + + + + + Choose where to save model files + Local para armazenar os modelos + + + + + Enable Datalake + Habilitar Datalake + + + + + Send chats and feedback to the GPT4All Open-Source Datalake. + Contribua para o Datalake de código aberto do GPT4All. + + + + + Advanced + Avançado + + + + + CPU Threads + Threads de CPU + + + + + The number of CPU threads used for inference and embedding. + Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas. + + + + + Save Chat Context + Salvar Histórico do Chat + + + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. + Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat). + + + + + Enable Local Server + Ativar Servidor Local + + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + Ativar servidor local compatível com OpenAI (uso de recursos elevado). + + + + + API Server Port + Porta da API + + + + + The port to use for the local server. Requires restart. + Porta de acesso ao servidor local. (requer reinicialização). + + + + + Check For Updates + Procurar por Atualizações + + + + + Manually check for an update to GPT4All. + Verifica se há novas atualizações para o GPT4All. + + + + + Updates + Atualizações + + + + Chat + + + + New Chat + Novo Chat + + + + Server Chat + Chat com o Servidor + + + + ChatDrawer + + + + Drawer + Menu Lateral + + + + + Main navigation drawer + Menu de navegação principal + + + + + + New Chat + + Novo Chat + + + + + Create a new chat + Criar um novo chat + + + + + Select the current chat or edit the chat when in edit mode + Selecione o chat atual ou edite o chat quando estiver no modo de edição + + + + + Edit chat name + Editar nome do chat + + + + + Save chat name + Salvar nome do chat + + + + + Delete chat + Excluir chat + + + + + Confirm chat deletion + Confirmar exclusão do chat + + + + + Cancel chat deletion + Cancelar exclusão do chat + + + + + List of chats + Lista de chats + + + + + List of chats in the drawer dialog + Lista de chats na caixa de diálogo do menu lateral + + + + ChatListModel + + + TODAY + HOJE + + + + THIS WEEK + ESTA SEMANA + + + + THIS MONTH + ESTE MÊS + + + + LAST SIX MONTHS + ÚLTIMOS SEIS MESES + + + + THIS YEAR + ESTE ANO + + + + LAST YEAR + ANO PASSADO + + + + ChatView + + + + <h3>Warning</h3><p>%1</p> + <h3>Aviso</h3><p>%1</p> + + + + + Switch model dialog + Mensagem ao troca de modelo + + + + + Warn the user if they switch models, then context will be erased + Ao trocar de modelo, o contexto da conversa será apagado + + + + + Conversation copied to clipboard. + Conversa copiada. + + + + + Code copied to clipboard. + Código copiado. + + + + + Chat panel + Painel de chat + + + + + Chat panel with options + Painel de chat com opções + + + + + Reload the currently loaded model + Recarregar modelo atual + + + + + Eject the currently loaded model + Ejetar o modelo carregado atualmente + + + + + No model installed. + Nenhum modelo instalado. + + + + + Model loading error. + Erro ao carregar o modelo. + + + + + Waiting for model... + Aguardando modelo... + + + + + Switching context... + Mudando de contexto... + + + + + Choose a model... + Escolha um modelo... + + + + + Not found: %1 + Não encontrado: %1 + + + + + The top item is the current model + O modelo atual é exibido no topo + + + + + + + LocalDocs + LocalDocs + + + + + Add documents + Adicionar documentos + + + + + add collections of documents to the chat + Adicionar Coleção de Documentos + + + + + Load the default model + Carregar o modelo padrão + + + + + Loads the default model which can be changed in settings + Carrega o modelo padrão (personalizável nas configurações) + + + + + No Model Installed + Nenhum Modelo Instalado + + + + + GPT4All requires that you install at least one +model to get started + O GPT4All precisa de pelo menos um modelo +modelo instalado para funcionar + + + + + Install a Model + Instalar um Modelo + + + + + Shows the add model view + Mostra a visualização para adicionar modelo + + + + + Conversation with the model + Conversa com o modelo + + + + + prompt / response pairs from the conversation + Pares de pergunta/resposta da conversa + + + + + GPT4All + GPT4All + + + + + You + Você + + + + + recalculating context ... + recalculando contexto... + + + + + response stopped ... + resposta interrompida... + + + + + processing ... + processando... + + + + + generating response ... + gerando resposta... + + + + + generating questions ... + gerando perguntas... + + + + + + + Copy + Copiar + + + + + Copy Message + Copiar Mensagem + + + + + Disable markdown + Desativar markdown + + + + + Enable markdown + Ativar markdown + + + + + Thumbs up + Resposta boa + + + + + Gives a thumbs up to the response + Curte a resposta + + + + + Thumbs down + Resposta ruim + + + + + Opens thumbs down dialog + Abrir diálogo de joinha para baixo + + + + + %1 Sources + %1 Origens + + + + + Suggested follow-ups + Perguntas relacionadas + + + + + Erase and reset chat session + Apagar e redefinir sessão de chat + + + + + Copy chat session to clipboard + Copiar histórico da conversa + + + + + Redo last chat response + Refazer última resposta + + + + + Stop generating + Parar de gerar + + + + + Stop the current response generation + Parar a geração da resposta atual + + + + + Reloads the model + Recarrega modelo + + + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help + <h3>Ocorreu um erro ao carregar o modelo:</h3><br><i>"%1"</i><br><br>Falhas no carregamento do modelo podem acontecer por vários motivos, mas as causas mais comuns incluem um formato de arquivo incorreto, um download incompleto ou corrompido, o tipo de arquivo errado, memória RAM do sistema insuficiente ou um tipo de modelo incompatível. Aqui estão algumas sugestões para resolver o problema:<br><ul><li>Certifique-se de que o arquivo do modelo tenha um formato e tipo compatíveis<li>Verifique se o arquivo do modelo está completo na pasta de download<li>Você pode encontrar a pasta de download na caixa de diálogo de configurações<li>Se você carregou o modelo, certifique-se de que o arquivo não esteja corrompido verificando o md5sum<li>Leia mais sobre quais modelos são suportados em nossa <a href="https://docs.gpt4all.io/">documentação</a> para a interface gráfica<li>Confira nosso <a href="https://discord.gg/4M2QFmTt2k">canal do Discord</a> para obter ajuda + + + + + + + Reload · %1 + Recarregar · %1 + + + + + Loading · %1 + Carregando · %1 + + + + + Load · %1 (default) → + Carregar · %1 (padrão) → + + + + + retrieving localdocs: %1 ... + Recuperando dados em LocalDocs: %1 ... + + + + + searching localdocs: %1 ... + Buscando em LocalDocs: %1 ... + + + + + Send a message... + Enviar uma mensagem... + + + + + Load a model to continue... + Carregue um modelo para continuar... + + + + + Send messages/prompts to the model + Enviar mensagens/prompts para o modelo + + + + + Cut + Recortar + + + + + Paste + Colar + + + + + Select All + Selecionar tudo + + + + + Send message + Enviar mensagem + + + + + Sends the message/prompt contained in textfield to the model + Envia a mensagem/prompt contida no campo de texto para o modelo + + + + CollectionsDrawer + + + + Warning: searching collections while indexing can return incomplete results + Aviso: pesquisar coleções durante a indexação pode retornar resultados incompletos + + + + + %n file(s) + + %n arquivo(s) + %n arquivo(s) + + + + + + %n word(s) + + %n palavra(s) + %n palavra(s) + + + + + + Updating + Atualizando + + + + + + Add Docs + + Adicionar Documentos + + + + + Select a collection to make it available to the chat model. + Selecione uma coleção para disponibilizá-la ao modelo de chat. + + + + HomeView + + + + Welcome to GPT4All + Bem-vindo ao GPT4All + + + + + The privacy-first LLM chat application + O aplicativo de chat LLM que prioriza a privacidade + + + + + Start chatting + Iniciar chat + + + + + Start Chatting + Iniciar Chat + + + + + Chat with any LLM + Converse com qualquer LLM + + + + + LocalDocs + LocalDocs + + + + + Chat with your local files + Converse com seus arquivos locais + + + + + Find Models + Encontrar Modelos + + + + + Explore and download models + Descubra e baixe modelos + + + + + Latest news + Últimas novidades + + + + + Latest news from GPT4All + Últimas novidades do GPT4All + + + + + Release Notes + Notas de versão + + + + + Documentation + Documentação + + + + + Discord + Discord + + + + + X (Twitter) + X (Twitter) + + + + + Github + Github + + + + + GPT4All.io + GPT4All.io + + + + + Subscribe to Newsletter + Assine nossa Newsletter + + + + LocalDocsSettings + + + + LocalDocs + LocalDocs + + + + + LocalDocs Settings + Configurações do LocalDocs + + + + + Indexing + Indexação + + + + + Allowed File Extensions + Extensões de Arquivo Permitidas + + + + + Comma-separated list. LocalDocs will only attempt to process files with these extensions. + Lista separada por vírgulas. O LocalDocs tentará processar apenas arquivos com essas extensões. + + + + + Embedding + Incorporação + + + + + Use Nomic Embed API + Usar a API Nomic Embed + + + + + Embed documents using the fast Nomic API instead of a private local model. Requires restart. + Incorporar documentos usando a API Nomic rápida em vez de um modelo local privado. Requer reinicialização. + + + + + Nomic API Key + Chave da API Nomic + + + + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. + Chave da API a ser usada para Nomic Embed. Obtenha uma na página de <a href="https://atlas.nomic.ai/cli-login">chaves de API do Atlas</a>. Requer reinicialização. + + + + + Embeddings Device + Processamento de Incorporações + + + + + The compute device used for embeddings. "Auto" uses the CPU. Requires restart. + Dispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização. + + + + + Display + Exibir + + + + + Show Sources + Mostrar Fontes + + + + + Display the sources used for each response. + Mostra as fontes usadas para cada resposta. + + + + + Advanced + Apenas para usuários avançados + + + + + Warning: Advanced usage only. + Atenção: Apenas para usuários avançados. + + + + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. + Valores muito grandes podem causar falhas no LocalDocs, respostas extremamente lentas ou nenhuma resposta. Em termos gerais, o {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Consulte <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a> para mais informações. + + + + + Document snippet size (characters) + Tamanho do trecho de documento (caracteres) + + + + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. + Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta. + + + + + Max document snippets per prompt + Máximo de Trechos de Documento por Prompt + + + + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. + Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta. + + + + LocalDocsView + + + + LocalDocs + LocalDocs + + + + + Chat with your local files + Converse com seus arquivos locais + + + + + + Add Collection + + Adicionar Coleção + + + + + ERROR: The LocalDocs database is not valid. + ERRO: O banco de dados do LocalDocs não é válido. + + + + + No Collections Installed + Nenhuma Coleção Instalada + + + + + Install a collection of local documents to get started using this feature + Instale uma coleção de documentos locais para começar a usar este recurso + + + + + + Add Doc Collection + + Adicionar Coleção de Documentos + + + + + Shows the add model view + Mostra a visualização para adicionar modelo + + + + + Indexing progressBar + Barra de progresso de indexação + + + + + Shows the progress made in the indexing + Mostra o progresso da indexação + + + + + ERROR + ERRO + + + + + INDEXING + INDEXANDO + + + + + EMBEDDING + INCORPORANDO + + + + + REQUIRES UPDATE + REQUER ATUALIZAÇÃO + + + + + READY + PRONTO + + + + + INSTALLING + INSTALANDO + + + + + Indexing in progress + Indexação em andamento + + + + + Embedding in progress + Incorporação em andamento + + + + + This collection requires an update after version change + Esta coleção requer uma atualização após a mudança de versão + + + + + Automatically reindexes upon changes to the folder + Reindexa automaticamente após alterações na pasta + + + + + Installation in progress + Instalação em andamento + + + + + % + % + + + + + %n file(s) + + %n arquivo(s) + %n arquivo(s) + + + + + + %n word(s) + + %n palavra(s) + %n palavra(s) + + + + + + Remove + Remover + + + + + Rebuild + Reconstruir + + + + + Reindex this folder from scratch. This is slow and usually not needed. + Reindexar esta pasta do zero. Esta operação é muito lenta e geralmente não é necessária. + + + + + Update + Atualizar + + + + + Update the collection to the new version. This is a slow operation. + Atualizar a coleção para a nova versão. Esta operação pode demorar. + + + + ModelList + + + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> + <ul><li>É necessária uma chave de API da OpenAI.</li><li>AVISO: Seus chats serão enviados para a OpenAI!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a OpenAI</li><li>Você pode solicitar uma chave de API <a href="https://platform.openai.com/account/api-keys">aqui.</a></li> + + + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 + <strong>Modelo ChatGPT GPT-3.5 Turbo da OpenAI</strong><br> %1 + + + + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 + <strong>Modelo ChatGPT GPT-4 da OpenAI</strong><br> %1 %2 + + + + <strong>Mistral Tiny model</strong><br> %1 + <strong>Modelo Mistral Tiny</strong><br> %1 + + + + <strong>Mistral Small model</strong><br> %1 + <strong>Modelo Mistral Small</strong><br> %1 + + + + <strong>Mistral Medium model</strong><br> %1 + <strong>Modelo Mistral Medium</strong><br> %1 + + + + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. + <br><br><i>* Mesmo que você pague pelo ChatGPT-4 da OpenAI, isso não garante acesso à chave de API. Contate a OpenAI para mais informações. + + + + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> + <ul><li>É necessária uma chave de API da Mistral.</li><li>AVISO: Seus chats serão enviados para a Mistral!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a Mistral</li><li>Você pode solicitar uma chave de API <a href="https://console.mistral.ai/user/api-keys">aqui</a>.</li> + + + + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> + <strong>Criado por %1.</strong><br><ul><li>Publicado em %2.<li>Este modelo tem %3 curtidas.<li>Este modelo tem %4 downloads.<li>Mais informações podem ser encontradas <a href="https://huggingface.co/%5">aqui.</a></ul> + + + + ModelSettings + + + + Model + Modelo + + + + + Model Settings + Configurações do Modelo + + + + + Clone + Clonar + + + + + Remove + Remover + + + + + Name + Nome + + + + + Model File + Arquivo do Modelo + + + + + System Prompt + Prompt do Sistema + + + + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. + Prefixado no início de cada conversa. Deve conter os tokens de enquadramento apropriados. + + + + + Prompt Template + Modelo de Prompt + + + + + The template that wraps every prompt. + Modelo para cada prompt. + + + + + Must contain the string "%1" to be replaced with the user's input. + Deve incluir "%1" para a entrada do usuário. + + + + + Chat Name Prompt + Prompt para Nome do Chat + + + + + Prompt used to automatically generate chat names. + Prompt usado para gerar automaticamente nomes de chats. + + + + + Suggested FollowUp Prompt + Prompt de Sugestão de Acompanhamento + + + + + Prompt used to generate suggested follow-up questions. + Prompt usado para gerar sugestões de perguntas. + + + + + Context Length + Tamanho do Contexto + + + + + Number of input and output tokens the model sees. + Tamanho da Janela de Contexto. + + + + + Maximum combined prompt/response tokens before information is lost. +Using more context than the model was trained on will yield poor results. +NOTE: Does not take effect until you reload the model. + Máximo de tokens combinados (prompt + resposta) antes da perda de informações. +Usar mais contexto do que o modelo foi treinado pode gerar resultados ruins. +Obs.: Só entrará em vigor após recarregar o modelo. + + + + + Temperature + Temperatura + + + + + Randomness of model output. Higher -> more variation. + Aleatoriedade das respostas. Quanto maior, mais variadas. + + + + + Temperature increases the chances of choosing less likely tokens. +NOTE: Higher temperature gives more creative but less predictable outputs. + Aumenta a chance de escolher tokens menos prováveis. +Obs.: Uma temperatura mais alta gera resultados mais criativos, mas menos previsíveis. + + + + + Top-P + Top-P + + + + + Nucleus Sampling factor. Lower -> more predicatable. + Amostragem por núcleo. Menor valor, respostas mais previsíveis. + + + + + Only the most likely tokens up to a total probability of top_p can be chosen. +NOTE: Prevents choosing highly unlikely tokens. + Apenas tokens com probabilidade total até o valor de top_p serão escolhidos. +Obs.: Evita tokens muito improváveis. + + + + + Min-P + Min-P + + + + + Minimum token probability. Higher -> more predictable. + Probabilidade mínima do token. Quanto maior -> mais previsível. + + + + + Sets the minimum relative probability for a token to be considered. + Define a probabilidade relativa mínima para um token ser considerado. + + + + + Top-K + Top-K + + + + + Size of selection pool for tokens. + Número de tokens considerados na amostragem. + + + + + Only the top K most likely tokens will be chosen from. + Serão escolhidos apenas os K tokens mais prováveis. + + + + + Max Length + Comprimento Máximo + + + + + Maximum response length, in tokens. + Comprimento máximo da resposta, em tokens. + + + + + Prompt Batch Size + Tamanho do Lote de Processamento + + + + + The batch size used for prompt processing. + Tokens processados por lote. + + + + + Amount of prompt tokens to process at once. +NOTE: Higher values can speed up reading prompts but will use more RAM. + Quantidade de tokens de prompt para processar de uma vez. +OBS.: Valores mais altos podem acelerar a leitura dos prompts, mas usarão mais RAM. + + + + + Repeat Penalty + Penalidade de Repetição + + + + + Repetition penalty factor. Set to 1 to disable. + Penalidade de Repetição (1 para desativar). + + + + + Repeat Penalty Tokens + Tokens para penalizar repetição + + + + + Number of previous tokens used for penalty. + Número de tokens anteriores usados para penalidade. + + + + + GPU Layers + Camadas na GPU + + + + + Number of model layers to load into VRAM. + Camadas Carregadas na GPU. + + + + + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. +Lower values increase CPU load and RAM usage, and make inference slower. +NOTE: Does not take effect until you reload the model. + Número de camadas do modelo carregadas na VRAM. Diminua se faltar VRAM ao carregar o modelo. + Valores menores aumentam o uso de CPU e RAM, e deixam a inferência mais lenta. +Obs.: Só entrará em vigor após recarregar o modelo. + + + + ModelsView + + + + No Models Installed + Nenhum Modelo Instalado + + + + + Install a model to get started using GPT4All + Instale um modelo para começar a usar o GPT4All + + + + + + + + Add Model + + Adicionar Modelo + + + + + Shows the add model view + Mostra a visualização para adicionar modelo + + + + + Installed Models + Modelos Instalados + + + + + Locally installed chat models + Modelos de chat instalados localmente + + + + + Model file + Arquivo do modelo + + + + + Model file to be downloaded + Arquivo do modelo a ser baixado + + + + + Description + Descrição + + + + + File description + Descrição do arquivo + + + + + Cancel + Cancelar + + + + + Resume + Retomar + + + + + Stop/restart/start the download + Parar/reiniciar/iniciar o download + + + + + Remove + Remover + + + + + Remove model from filesystem + Remover modelo do sistema de arquivos + + + + + + + Install + Instalar + + + + + Install online model + Instalar modelo online + + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">Erro</a></strong></font> + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">AVISO: Não recomendado para seu hardware. O modelo requer mais memória (%1 GB) do que seu sistema tem disponível (%2).</strong></font> + + + + + %1 GB + %1 GB + + + + + ? + ? + + + + + Describes an error that occurred when downloading + Descreve um erro que ocorreu durante o download + + + + + Error for incompatible hardware + Erro para hardware incompatível + + + + + Download progressBar + Barra de progresso do download + + + + + Shows the progress made in the download + Mostra o progresso do download + + + + + Download speed + Velocidade de download + + + + + Download speed in bytes/kilobytes/megabytes per second + Velocidade de download em bytes/kilobytes/megabytes por segundo + + + + + Calculating... + Calculando... + + + + + + + Whether the file hash is being calculated + Se o hash do arquivo está sendo calculado + + + + + Busy indicator + Indicador de ocupado + + + + + Displayed when the file hash is being calculated + Exibido quando o hash do arquivo está sendo calculado + + + + + enter $API_KEY + inserir $API_KEY + + + + + File size + Tamanho do arquivo + + + + + RAM required + RAM necessária + + + + + Parameters + Parâmetros + + + + + Quant + Quant + + + + + Type + Tipo + + + + MyFancyLink + + + + Fancy link + Link personalizado + + + + + A stylized link + Um link personalizado + + + + MySettingsStack + + + + Please choose a directory + Escolha um diretório + + + + MySettingsTab + + + + Restore Defaults + Restaurar Configurações Padrão + + + + + Restores settings dialog to a default state + Restaura as configurações para o estado padrão + + + + NetworkDialog + + + + Contribute data to the GPT4All Opensource Datalake. + Contribuir com dados para o Datalake de código aberto GPT4All. + + + + + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! + Ao habilitar este recurso, você poderá participar do processo democrático de treinamento de um grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo. + +Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta, pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All. + +OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All. Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto, você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer versão do modelo GPT4All que utilize seus dados! + + + + + Terms for opt-in + Termos de participação + + + + + Describes what will happen when you opt-in + Descrição do que acontece ao participar + + + + + Please provide a name for attribution (optional) + Forneça um nome para atribuição (opcional) + + + + + Attribution (optional) + Atribuição (opcional) + + + + + Provide attribution + Fornecer atribuição + + + + + Enable + Habilitar + + + + + Enable opt-in + Ativar participação + + + + + Cancel + Cancelar + + + + + Cancel opt-in + Cancelar participação + + + + NewVersionDialog + + + + New version is available + Atualização disponível + + + + + Update + Atualizar agora + + + + + Update to new version + Baixa e instala a última versão do GPT4All + + + + PopupDialog + + + + Reveals a shortlived help balloon + Exibe uma dica rápida + + + + + Busy indicator + Indicador de processamento + + + + + Displayed when the popup is showing busy + Visível durante o processamento + + + + QObject + + + Default + Padrão + + + + SettingsView + + + + + + Settings + Configurações + + + + + Contains various application settings + Acessar as configurações do aplicativo + + + + + Application + Aplicativo + + + + + Model + Modelo + + + + + LocalDocs + LocalDocs + + + + StartupDialog + + + + Welcome! + Bem-vindo(a)! + + + + + ### Release notes +%1### Contributors +%2 + ### Notas de lançamento +%1### Colaboradores +%2 + + + + + Release notes + Notas de lançamento + + + + + Release notes for this version + Notas de lançamento desta versão + + + + + ### Opt-ins for anonymous usage analytics and datalake +By enabling these features, you will be able to participate in the democratic process of training a +large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All +Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you +can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. +You should have no expectation of chat privacy when this feature is enabled. You should; however, have +an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone +to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all +attribution information attached to your data and you will be credited as a contributor to any GPT4All +model release that uses your data! + ### Opções para análise de uso anônimo e banco de dados +Ao habilitar esses recursos, você poderá participar do processo democrático de treinamento de um +grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo. + +Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de +Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta, +pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All. + +OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All. +Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto, +você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para +qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá +todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer +versão do modelo GPT4All que utilize seus dados! + + + + + Terms for opt-in + Termos de participação + + + + + Describes what will happen when you opt-in + Descrição do que acontece ao participar + + + + + + + Opt-in for anonymous usage statistics + Enviar estatísticas de uso anônimas + + + + + + + Yes + Sim + + + + + Allow opt-in for anonymous usage statistics + Permitir o envio de estatísticas de uso anônimas + + + + + + + No + Não + + + + + Opt-out for anonymous usage statistics + Recusar envio de estatísticas de uso anônimas + + + + + Allow opt-out for anonymous usage statistics + Permitir recusar envio de estatísticas de uso anônimas + + + + + + + Opt-in for network + Aceitar na rede + + + + + Allow opt-in for network + Permitir aceitação na rede + + + + + Allow opt-in anonymous sharing of chats to the GPT4All Datalake + Permitir compartilhamento anônimo de chats no Datalake GPT4All + + + + + Opt-out for network + Recusar na rede + + + + + Allow opt-out anonymous sharing of chats to the GPT4All Datalake + Permitir recusar compartilhamento anônimo de chats no Datalake GPT4All + + + + SwitchModelDialog + + + + <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? + <b>Atenção:</b> Ao trocar o modelo a conversa atual será perdida. Continuar? + + + + + Continue + Continuar + + + + + Continue with model loading + Confirma a troca do modelo + + + + + + + Cancel + Cancelar + + + + ThumbsDownDialog + + + + Please edit the text below to provide a better response. (optional) + Editar resposta (opcional) + + + + + Please provide a better response... + Digite sua resposta... + + + + + Submit + Enviar + + + + + Submits the user's response + Enviar + + + + + Cancel + Cancelar + + + + + Closes the response dialog + Fecha a caixa de diálogo de resposta + + + + main + + + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>Ocorreu um erro ao iniciar:</h3><br><i>"Hardware incompatível detectado."</i><br><br>Infelizmente, seu processador não atende aos requisitos mínimos para executar este programa. Especificamente, ele não possui suporte às instruções AVX, que são necessárias para executar modelos de linguagem grandes e modernos. A única solução, no momento, é atualizar seu hardware para um processador mais recente.<br><br>Para mais informações, consulte: <a href="https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions">https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + + + + + GPT4All v%1 + GPT4All v%1 + + + + + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. + <h3>Ocorreu um erro ao iniciar:</h3><br><i>"Não foi possível acessar o arquivo de configurações."</i><br><br>Infelizmente, algo está impedindo o programa de acessar o arquivo de configurações. Isso pode acontecer devido a permissões incorretas na pasta de configurações do aplicativo. Para obter ajuda, acesse nosso <a href="https://discord.gg/4M2QFmTt2k">canal no Discord</a>. + + + + + Connection to datalake failed. + Falha na conexão com o datalake. + + + + + Saving chats. + Salvando chats. + + + + + Network dialog + Avisos de rede + + + + + opt-in to share feedback/conversations + permitir compartilhamento de feedback/conversas + + + + + Home view + Tela inicial + + + + + Home view of application + Tela inicial do aplicativo + + + + + Home + Início + + + + + Chat view + Visualização do Chat + + + + + Chat view to interact with models + Visualização do chat para interagir com os modelos + + + + + Chats + Chats + + + + + + + Models + Modelos + + + + + Models view for installed models + Tela de modelos instalados + + + + + + + LocalDocs + LocalDocs + + + + + LocalDocs view to configure and use local docs + Tela de configuração e uso de documentos locais do LocalDocs + + + + + + + Settings + Configurações + + + + + Settings view for application configuration + Tela de configurações do aplicativo + + + + + The datalake is enabled + O datalake está ativado + + + + + Using a network model + Usando um modelo de rede + + + + + Server mode is enabled + Modo servidor ativado + + + + + Installed models + Modelos instalados + + + + + View of installed models + Exibe os modelos instalados + + + diff --git a/roadmap.md b/roadmap.md index 1b9cacab..e03fe79b 100644 --- a/roadmap.md +++ b/roadmap.md @@ -8,7 +8,7 @@ Each item should have an issue link below. - [ ] Chinese - [ ] German - [ ] French - - [ ] Portuguese + - [x] Portuguese - [ ] Your native language here. - UI Redesign: an internal effort at Nomic to improve the UI/UX of gpt4all for all users. - [x] Design new user interface and gather community feedback