
GPT-4 vs. GPT-3. Comparação e potencial dos modelos OpenAI quando se trata de tradução


ChatGPT mudou as percepções em todo o mundo sobre os recursos da inteligência artificial. Em termos gerais, ele deixou de ser desajeitado e robótico para ser humanoide de uma forma estranha.
Como isso afeta as possibilidades na esfera da tradução?
Os humanos não são mais necessários?
Posso processar tudo pelo ChatGPT e nunca mais gastar um centavo em minhas traduções?
Este artigo explorará o potencial e as limitações das traduções oferecidas por grandes modelos de linguagem.
Deseja falar com o ChatGPT?

Falar com um transformador generativo pré-treinado, como GPT3/4 ou outros chatbots de IA com capacidade semelhante, pode ser esclarecedor e assustador. Uma resposta ao seu prompt pode resultar em surpresa e consternação do usuário. GPT 4 é capaz de passar no exame BAR no 90º percentil e também capaz de cometer grandes erros, como fabricar fatos incorretos ou aceitar argumentos ilógicos.
Tudo depende de parâmetros e dados de treinamento, mas em inglês as GPT 3 e 4 mostram claramente o potencial de mudar a maneira como lidamos com nossos trabalhos e trabalhos profissionais.
Mas como funciona em outros idiomas?
Como funciona com mais ou menos contexto?
O GPT 3 é significativamente diferente do GPT 4?
Tradução automática, mas sem um sistema de tradução automática

A história da tradução automática mostrou claramente a limites da tecnologia em nosso mundo. Quando as ideias foram introduzidas pela primeira vez nos anos 80, alguns eram incrivelmente otimistas sobre não exigir mais um humano para gerar traduções precisas.
Era apenas uma questão de desenvolver diferentes modelos estatísticos e baseados em regras para criar traduções que soassem como um ser humano falaria naturalmente.
Mas claramente não era o caso. Os modelos melhoraram e o acesso ao conhecimento melhorou, mas a linguagem provou ser muito nuançada e crivada de exceções para que os engenheiros pudessem explicá-la a uma máquina. Os modelos não eram baseados em um diálogo de prompt-e-resposta, mas em uma única saída para entrada de texto em inglês ou qualquer outro idioma abrangido pelo mecanismo.
Escolhendo um modelo e estimando um custo de tradução
Embora a escolha de um modelo possa parecer a primeira etapa lógica para traduzir com gpt 3, por exemplo, é bem possível que seja a última etapa sua jornada de tradução.
Você pode trabalhar, por exemplo, com texto simples e simplesmente inseri-lo em um gpt 3 ou trabalhar com a API da openai para importar e exportar seu conteúdo, por exemplo, mas isso ignorará alguns dos principais desafios relacionados às traduções.
O primeiro óbvio, por exemplo, é a perda de formatação. À medida que você se aprofunda em grandes modelos de linguagem e outros sistemas de inteligência artificial, a importância da gestão do conhecimento também se torna mais crítica.
Como você gerenciará as traduções anteriores?
Como você ajustará seu mecanismo para que ele leve em consideração sua terminologia ou seu SEO?
Os chatbots de IA, por mais poderosos que sejam, não foram projetados originalmente como mecanismos de tradução. A tradução GPT 3 é incrível em muitos contextos. Muitas vezes, ele pode apresentar a seus usuários traduções que parecem humanas e podem soar ainda melhor do que o texto em inglês ou qualquer outro idioma original, mas, por si só, será quase impossível operar em escala ou de forma recorrente.
Um sistema de gerenciamento de tradução profundamente integrado à inteligência artificial é necessário para garantir que você extraia os principais benefícios apresentados pelo gpt 3 ou 4.
Deseja falar com Character.ai, a mais recente IA dos criadores do Google LaMDA?
As conversas de chatbot, como o Character.ai desenvolvido pelo LaMDA do Google, mostram claramente como é possível ter uma conversa humana sem nenhum contexto específico. É possível falar com um personagem que você construiu ou pré-selecionou de uma forma que às vezes parece genuinamente humana.
É importante falar sobre LaMDA porque muitas vezes as pessoas têm uma perspectiva limitada de quantos sistemas existem. Aqui estão alguns exemplos de outros:
BERTO: Representações de codificador bidirecional de Transformers, desenvolvidas pelo Google AI
- XLNet: Generalized Autoregressive Pretraining for Language Understanding, desenvolvido pela Carnegie Mellon University e Google AI
- XLM-RoBERTa: Uma abordagem de pré-treinamento BERT robustamente otimizada, desenvolvida pelo Facebook AI
- Cohere: Um LLM que pode ser ajustado para domínios e tarefas específicos, desenvolvido pela Cohere AI
- GLM-130B: LLM generativo com 130 bilhões de parâmetros, desenvolvido pela Huawei
- Meta LLaMA AI: Arquitetura Meta LLM com 1,6 trilhão de parâmetros, desenvolvida pela Meta AI
- Chinchilla: Um grande modelo de linguagem que pode gerar texto com som natural em vários idiomas, desenvolvido pela LG AI Research
- LaMDA: Modelo de linguagem para aplicativos de diálogo, desenvolvido pelo Google Research
- PaLM: Pré-treinamento de um modelo de linguagem Autoencoding&Autoregressive para geração condicionada ao contexto, desenvolvido pela DeepMind
O GPT 3 foi o primeiro modelo que conseguiu quebrar a percepção pública de que a inteligência artificial era algo apenas para engenheiros. Gpt 3 foi o primeiro modelo de linguagem que mostrou ao mundo que a ficção científica não é tanto assim, afinal.
Tipos de entrada em GPT-4 e GPT-3
No que diz respeito à tradução, um usuário pode inserir texto na interface de bate-papo gpt 3 ou 4 (elas são a mesma interface de usuário) e obter de volta o texto traduzido quando precedido por um prompt de tradução. No entanto, um usuário está limitado a texto simples.
Qualquer formatação será perdida e a única maneira de preservá-la é trabalhando com um sistema de gerenciamento de tradução, como o BWX, que analisa arquivos nativamente para que as informações possam ser trocadas com GPT 3 e 4 sem qualquer perda de formatação ou outras informações metatextuais.
Ajuste fino dos modelos OpenAI
A qualidade da saída de uma tradução é baseada na sofisticação do modelo de idioma baseado principalmente em parâmetros e tamanho dos dados de treinamento. Mas também se baseia na qualidade do prompt, bem como no contexto adicional fornecido por uma pessoa (usuário humano).
Quanto mais orientação o modelo de linguagem receber, melhor o gpt 3 ou 4 será capaz de fornecer palavras que façam sentido para o leitor.
Se você descrever em seu prompt, por exemplo, que deseja que a tradução soe informal e cativante, o gpt 3 responderá de maneira correspondente e terá a liberdade de escrever sua resposta de maneira que ressoe com sua incitar.
É por isso que, no Bureau Works, nossos engenheiros de aprendizado de máquina tiram o melhor proveito do aprendizado de tiro zero e tiro curto.
Sem entrar em muitos detalhes sobre a mecânica dos tipos de aprendizado de máquina e sua capacidade de interpretar mensagens e responder de uma forma que faça sentido para seus usuários, no Bureau Works nos concentramos em criar respostas a partir do solo acima.
A IA deve ser capaz de escrever mensagens contextualizadas nas ideias e propósitos dos usuários.
Se o usuário, por exemplo, quiser que a tradução soe natural, mesmo que se desvie semanticamente do chamado texto original em inglês, a resposta pode parecer estranha, mas pode ser perfeita para como uma pessoa na Internet deve reagir ao ler a saída gerada pelo ai.
BWX é nativamente capaz de manter uma interação com gpt 3 ou 4, bem como outros modelos de IA que levarão em consideração:
- traduções anteriores armazenadas em sua memória de tradução
- terminologia
- domínio
- formatação/marcação
Através desse ajuste fino, podemos criar um ambiente no qual o sistema pode processar dados e fornecer uma resposta mais alinhada com as expectativas dentro do contexto dessa interação.
Uma mensagem ajustada para gpt 3 ou 4 gerará palavras que descrevem conceitos semelhantes com um toque que faz toda a diferença. Dê uma olhada no seguinte exemplo:
Resumo original:
Agora com Apple Twist:
Bureau Works é um poderoso sistema de gerenciamento de tradução que permite lidar com qualquer projeto de tradução e localização com facilidade e confiança. É baseado em nuvem, então você pode acessá-lo a qualquer hora, em qualquer lugar.
Agora com Kurt Vonnegut Twist:
Bureau Works se preocupa com tradução e localização. Achamos que você também deveria. Não é fácil alcançar um público global com sua mensagem. Mas podemos ajudá-lo a fazer isso melhor e mais rápido do que nunca.
Agora com Gen Z Twist:
Bureau Works está aceso. É um sistema que ajuda você a traduzir e localizar seu material online. Você pode usá-lo para qualquer coisa: sites, aplicativos, e-mails, documentos, etc. Você pode começar gratuitamente ou escolher um plano que se adapte à sua vibe.
É por meio dessas respostas que gpt 3 consegue falar de várias formas sobre a mesma coisa. É a natureza da escrita. O mesmo conceito pode ser expresso de inúmeras maneiras diferentes e cada forma tem a capacidade de evocar diferentes emoções humanas, independentemente de terem sido concebidas por uma IA ou não.
GPT-4 vs. Recursos do modelo GPT-3
O GPT4 é uma evolução natural do GPT 3. O GPT 4 tem cerca de 570 vezes mais parâmetros do que o GPT 3 - 175 bilhões vs. 100 trilhões. Isso resulta em um diálogo mais consistente e menos erros ao comparar os diferentes modelos de IA. O GPT 4 também pode analisar a entrada visual. Ambos os modelos não foram treinados para traduzir, mas ambos podem escrever palavras com sons incrivelmente naturais, palavra por palavra.
Definindo o contexto de GPT-4 vs. Conversa GPT-3
O contexto refere-se a todas as informações que informam o texto, mas não são o próprio texto. Em uma teia de significado, o contexto refere-se a todos os fios que sustentam a teia como um todo, enquanto o texto é a parte central da teia.
Quando se trata de IA e significado em geral, o contexto muda tudo. Se eu disser ao ai por exemplo que para cima é para baixo e para baixo conforme o contexto por exemplo e depois disser ao ai que estou no sétimo andar e quero ir para o oitavo andar, o ai vai me explicar que devo ir abaixo.
A IA dirá isso porque dei a ela um contexto que orienta como ela aborda o texto. Este é um exemplo extremo de contexto, mas em conversas de tradução com um modelo AI como gpt 3, posso definir o contexto como certas palavras que devem ser usadas ou evitadas, certos tons que devem ser seguidos, como formal ou informal, ou informações sobre os objetivos abrangentes para o texto que o gpt 3 deve levar em consideração.
Configuração da API

Quando se trata de trabalhar com gpt 3 ou 4 por meio do BWX, não há necessidade de se preocupar sobre como configurar a API. O BWX possui uma API nativa com acesso aos endpoints gpt 3 e um framework proprietário que permite que as informações desse processo sejam trocadas com gpt 3 ou 4 da forma mais eficaz possível.
A beleza é que nossa API também utiliza outros modelos de IA além do gpt 3, como LaMDA e LLaMA. Nossa API usa uma combinação de modelos de aprendizado de máquina para maximizar a relevância da escrita gpt 3 e 4, independentemente do prompt usado.

Deseja usar GPT-3?
Usar gpt 3 ou 4 com BWX é muito simples. Nossa integração com a web é habilitada como configuração padrão em nosso aplicativo da web. Este artigo explora apenas a visão geral básica e os recursos de nossa integração gpt 3 web, mas você pode encontrar mais informações caso esteja interessado em nossa biblioteca de suporte web em support.bureauworks.com
Você pode se inscrever gratuitamente teste e, claro, você pode cancelar a qualquer momento antes do final do período de teste e não será cobrado.
GPT-3 vs. GPT-4 – Principais conclusões
No que diz respeito a GPT 3 vs. GPT 4 aplicado a traduções, não conseguimos notar desvios dramáticos na escrita de exemplos. Cada modelo é capaz de produzir conversas relevantes.
Temos um relatório de 55 páginas preenchido com exemplos de gpt 3 que podem ser baixados aqui caso você esteja interessado e estamos trabalhando em um novo relatório que comparará em detalhes o desempenho de cada modelo.
Assim que esta prévia da pesquisa estiver disponível, iremos notificá-lo por meio de nosso boletim informativo, caso você esteja interessado. Cada modelo, independentemente de como é treinado, seja por meio de poucos tiros, tiro zero ou outros tipos de métodos de aprendizado de máquina, é capaz de produzir feeds que às vezes podem assustar os usuários da Internet devido à sua estranha natureza humana.
De acordo com a OpenAI, o GPT 4 tem um desempenho consideravelmente melhor do que o GPT 3 em determinados cenários, mas no que diz respeito à escrita, o nível é relativamente semelhante. Mais por vir quando publicarmos nosso relatório detalhado comparando cada modelo.
Deseja usar o Jurassic-1, o maior e mais sofisticado modelo de linguagem já lançado para uso geral por desenvolvedores?
De acordo com o Bing, "Jurassic-1 é o nome dado a alguns modelos auto-regressivos de Processamento de Linguagem Natural (NLP) desenvolvidos pelo AI21 Labs de Israel1 . Os modelos Jurássico-1 são altamente versáteis, capazes tanto de gerar textos semelhantes aos humanos quanto de resolver tarefas complexas, como responder a perguntas, classificar textos e muitas outras2{ 6}3.
Os modelos Jurassic-1 vêm em dois tamanhos, sendo que a versão Jumbo, com 178 bilhões de parâmetros, é o maior e mais sofisticado modelo de linguagem já lançado para uso geral por desenvolvedores2{5 }3."
GPT 4 é um modelo AI com quase 3 vezes mais parâmetros do que Jurassic-1 JUMBO. Jurassic-1 costumava ser maior que o gpt 3, mas foi superado pelo gpt 4. Ser maior que gpt 3 não significava que fosse capaz necessariamente de produzir melhores resultados.
Afinal, foi o modelo gpt 3 treinado que fez o mundo abrir os olhos para as verdadeiras aplicações da web e do mundo real de um modelo de IA. No que diz respeito às integrações, nosso estado atual e projeções apontam para a integração do BWX com vários modelos para extrair o melhor que cada modelo oferece.
Custo de usar GPT-4 vs. GPT-3
Para obter informações sobre os custos da Open AI API, visite: https://openai.com/pricing
{ 10}No que diz respeito ao BWX, não há diferença em trabalhar com GPT 3 vs. GPT 4. Nossa API encaminha naturalmente o conteúdo por meio do modelo mais eficaz do ponto de vista de custo-benefício.
Este artigo não fornece detalhes técnicos sobre como funciona nossa integração com o gpt 3, mas pode ser encontrado na web em nossa biblioteca de suporte aqui: http://support.bureauworks.com
{4 } Atualmente, o GPT-4 é mais caro que o GPT-3, pois esse modelo usa muito mais poder de computação para produzir suas respostas.
GPT-3.5 Turbo atualmente custa US$ 0,002 / 1 mil tokens, enquanto o modelo de prompt GPT 4 de 32 mil custa US$ 0,06/1 mil tokens US$ 0,12/1 mil tokens, aproximadamente 30 vezes mais.
No entanto, o plano BWX para tradutores inclui a integração GPT como parte do preço base que começa em $ 9 por usuário com um processamento máximo de 200.000 palavras por usuário por ciclo mensal.
Zero-Shot Translation
Com base em nossos estudos até agora, as traduções zero-shot não produzem resultados consistentes e confiáveis. Por mais incrível que gpt 3 possa ser como um modelo de linguagem pré-treinado, traduzir sem contexto adicional produz resultados mistos.
Encontramos melhores resultados em ambientes altamente treinados ou em ambientes orientados por aprendizado de poucos tiros.
Com a tradução instantânea, gpt 3 ou 4 provavelmente produzirão resultados inconsistentes. Como este artigo mostrou, ambos são treinados por conteúdo da web e produzirão saídas diferentes para a mesma entrada e solicitação ocasionalmente por design.
A tradução tem tudo a ver com alavancar e construir bases de conhecimento para promover a consistência da marca, SEO, inteligibilidade e outros requisitos para aceitação do usuário.
Deseja criar você mesmo?
Criar uma integração com GPT 3 é relativamente simples. A API está bem documentada e os terminais funcionam bem. Existem desafios em relação aos limites de taxa, tamanho do texto e outras restrições em torno da arquitetura da API. Mas o mais importante, construir uma integração com GPT 3 ou 4 é a parte fácil.
Com o contexto adequado, GPT 3 ou 4 são capazes, em teoria, de criar a própria integração. A parte desafiadora é que a integração pode inserir e enviar texto, mas terá limites claros em relação à preservação da formatação, mantendo a consistência terminológica, referindo-se ao material traduzido no passado como referência, aprendendo com a entrada do usuário e outros cenários que são materiais para produzir traduções de alta qualidade em grande escala. Então você pode fazer isso sozinho? Certamente.
Será eficaz e escalonável? Duvidoso. Um dos principais aprendizados até agora do GPT 3 e 4 é que, por mais poderosos que sejam, por mais humanos que possam parecer, eles exigem orientação, estrutura e os elementos certos para oferecer desempenho máximo consistente. É por isso que recomendamos que você experimente o BWX gratuitamente por 14 dias e veja por si mesmo a mágica que pode extrair de uma integração tão profunda com o GPT em um ambiente que foi projetado desde o início para produzir traduções de alta qualidade em escala com o mínimo de intervenção humana .
