A tradução automática neural ou Neural Machine Translation (NMT) é o resultado dessa capacidade que a máquina tem de aprender. Baseada na tecnologia deep learning, a NMT é composta por uma rede de neurônios artificiais. O sistema não apenas aprende, como também gera as regras de uma linguagem a partir de um texto traduzido determinado.

Entendendo os neurônios artificiais

A rede neural artificial, ou Artificial Neural Network (ANN), recebe este nome por ter sido inspirada no nosso próprio sistema nervoso. De forma semelhante aos neurônios humanos, os neurônios artificiais estão todos interconectados – e nessas ligações ocorrem as “sinapses” da máquina.


Fonte: cerebromente

Os neurônios artificiais são conectados entre si com parâmetros de rede, também chamados de pesos. Durante a fase de aprendizado ou treinamento, a rede consegue corrigir automaticamente seus parâmetros, bastando que receba um feedback do resultado. 


Start for Free

A rede permite um aprendizado de ponta a ponta, em que o sistema é capaz de reconhecer padrões e estruturas de frases. Em vez de trabalhar a partir de uma série de regras pré-estabelecidas, o próprio sistema faz a codificação dos dados de entrada e decodifica os dados para apresentá-los de forma inteligível ao fim. 

Por conta desse treinamento que parte de dados básicos e faz com que a própria máquina aprenda sozinha, o nome “aprendizado profundo” soa bastante adequado.

A evolução da tradução automática neural

A primeira estrutura que daria à luz a NMT foi apresentada em 2013. O modelo fazia a codificação do texto fonte em um vetor, usando a rede neural convolucional. Essa rede é mais utilizada para processamento de imagens, pois as ligações entre os neurônios artificiais simulam a do córtex visual humano.

Depois de passar pelas camadas intermediárias, o modelo usa a rede neural recorrente para transformar o vetor no texto traduzido para a língua alvo.

O desempenho dessa estrutura não foi satisfatório, pois ela apresentou problemas, durante o treinamento, para colocar em ordem frases muito longas.

Em 2014, pesquisadores apresentam um método chamado de sequence-to-sequence (Seq2Seq), elaborado justamente para lidar com o problema da sequência em trechos longos. Esse tipo de aprendizado usa a rede neural recorrente tanto como codificadora quanto como decodificadora.

Fonte: Medium

Além disso, as camadas de neurônios intermediárias passaram a usar a Long Short-Term Memory (LSTM), uma memória de curto prazo para sequências longas. No teste inicial, por exemplo, o vocabulário continha 160 mil palavras em língua inglesa. As camadas recebiam uma representação do texto a ser traduzido com 8 mil elementos, formando um vetor de comprimento fixo. Assim, todas as camadas lidavam com 8 mil elementos em seus vetores de contexto. Dessa forma, o modelo foi capaz de reconhecer melhor as relações de longa distância dentro de uma frase ou oração.

Fonte: Medium

Outra vantagem da LSTM é que ela permite exclusões e atualizações feitas diretamente em sua memória.

Apesar do desempenho superior ao modelo de 2013, os vetores de comprimento fixo acabaram sendo um problema no processo de decodificação. O tamanho desses vetores precisava se manter o mesmo, independentemente de a frase ou oração ser curta ou longa. Contudo, no caso de o a frase ser longa demais, os resultados eram incertos.

E foi aí que, ainda em 2014, a NMT passou a usar o mecanismo Attention, uma outra proposta vinda do campo de classificação de imagens. Com ele, a rede neural tem sua atenção direcionada às partes relevantes do input para realizar suas previsões.

Assim, o vetor intermediário tem um contexto ponderado que é usado de base, e não um vetor de comprimento fixo com todos os elementos tendo o mesmo “peso”.

A LSTM foi substituída pela arquitetura Gated Recurrent Unit (GRU), que é pautada em “portões” que conseguem aprender quais dados serão mantidos e quais dados podem ser descartados. São eles que vão abrir o caminho durante a transferência de informações, indicando se é preciso redefinir ou atualizar o vetor.

Ainda há o que melhorar na NMT

A NMT ainda é a mais recente e melhor inovação em deep learning voltada para o processamento de linguagem natural. Contudo, há algumas questões que precisam ser melhoradas, como a relativa lentidão do processo de treinamento e na tradução de palavras “out-of-vocabulary”, ou seja, termos que não são parte dos dados de treinamento, mas que eventualmente aparecem no mundo real. 

O potencial para que essa tecnologia se aproxime cada vez mais da qualidade da tradução humana é grande, mas é importante ressaltar que mesmo os resultados da NMT ainda precisam de uma revisão humana.

De fato, atualmente, muitas empresas optam por contratar tradutores para que revisem os textos gerados pela tradução automática. Sendo assim, a tendência não é que tradutores sejam substituídos pela inteligência artificial, mas que ambos se tornem aliados no caminho para a tão almejada tradução perfeita.

 

Published On: junho 17th, 2022 / Categories: Dicas e Tendências /

Agende uma Demonstração Gratuita

Descubra o que empresas de ponta estão fazendo para internacionalizar seus conteúdos

Add notice about your Privacy Policy here.