O poder dos small language models: menores, mais rápidos e eficientes

“Small is the next big thing”, afirma o estudo “10 Breakthrough Technologies 2025” do MIT Technology Review, ao prever que os small language models ganharão protagonismo neste ano.

Desde 2001, a equipe do MIT Technology Review, por meio de pesquisas e análises conduzidas por especialistas, destaca as tecnologias com maior potencial de impacto na sociedade. Em 2025, a lista traz avanços que vão desde inteligência artificial, incluindo o processamento de linguagem natural, até robótica biohíbrida, computação criogênica, armazenamento de dados e energia. E, claro, os small language models, que são o tema dessa artigo.

De acordo com o estudo, “size matters in the AI world”. Quando a OpenAI lançou o GPT-3 em 2020, ele era o maior modelo de linguagem já criado, o que desencadeou uma corrida tecnológica sustentada por modelos cada vez maiores. Noam Brown , pesquisador da OpenAI, disse em seu TEDAI em São Francisco que o progresso da Inteligência Artificial dos últimos 5 anos poderia ser resumido em apenas uma palavra: escala.

Porém, hoje a ideia é buscar maneiras de fazer mais com menos. Em tarefas específicas, modelos menores, treinados em conjuntos de dados mais focados, já podem desempenhar tão bem quanto—ou até melhor—que seus equivalentes maiores.

Isso representa uma oportunidade valiosa para empresas que buscam implementar IA de forma direcionada e eficiente. Afinal, não é necessário utilizar toda a internet em um modelo se os pedidos se repetem de maneira previsível.

Além de eficientes, os small language models oferecem vantagens significativas: são mais rápidos para treinar e operar, proporcionando uma entrada mais acessível para quem deseja implementar IA. Outro ponto relevante é o impacto ambiental: como demandam menos recursos computacionais em comparação aos gigantes, consomem menos energia, contribuindo para um uso mais sustentável.

Por fim, esses modelos compactos também são mais versáteis: podem operar diretamente em dispositivos móveis, sem a necessidade de enviar requisições para a nuvem. É essa combinação de eficiência, acessibilidade e sustentabilidade que posiciona os small language models como uma das principais tendências da tecnologia em 2025. Veja mais sobre o assunto abaixo:


O que são Small Language Models?

Os Small Language Models (SLMs) são modelos de inteligência artificial (IA) capazes de processar, entender e gerar conteúdo em linguagem natural. Como o próprio nome sugere, os SLMs são menores em escala e escopo quando comparados aos Large Language Models (LLMs).

Em termos de tamanho, os parâmetros dos SLMs variam de alguns milhões a poucos bilhões, enquanto os LLMs possuem centenas de bilhões ou até trilhões de parâmetros.

Esses parâmetros são variáveis internas que o modelo aprende durante o treinamento. Eles influenciam diretamente o comportamento e o desempenho de um modelo de machine learning.

Os SLMs são especialmente úteis em cenários onde a inferência de IA—ou seja, quando o modelo gera uma resposta a uma consulta do usuário—precisa ser realizada offline, sem depender de uma rede de dados.

Embora os LLMs ainda sejam a melhor escolha para projetos específicos, eles podem ser caros para operar, tanto em termos financeiros quanto em consumo de energia e recursos computacionais. De acordo com cálculos da IDC, o investimento global em IA deve dobrar nos próximos quatro anos, alcançando US$ 632 bilhões, com a IA generativa representando 32% desse total.

Steve McMillan, presidente e CEO da Teradata, uma das maiores plataformas de análise em nuvem focadas em harmonizar dados com IA confiável, destaca na Forbes um caminho alternativo para muitas empresas: “À medida que olhamos para o futuro, acreditamos que pequenos e médios modelos de linguagem, além de ambientes controlados como LLMs específicos de domínio, oferecerão soluções muito melhores.”

Uma das vantagens críticas dos SLMs é que os dados podem ser mantidos dentro do domínio da empresa, protegidos por firewalls, garantindo que informações sensíveis não sejam utilizadas no treinamento de modelos externos. Além disso, os SLMs são escaláveis tanto em termos de computação quanto de uso de energia, alinhando-se às necessidades reais dos projetos, o que ajuda a reduzir custos contínuos e impactos ambientais.

>> Leitura recomendada: Hiperprodutividade no desenvolvimento de software: oportunidades e desafios na era da IA

Benefícios dos Small Language Models

Os small language models (SLMs) oferecem diversas vantagens que os tornam soluções altamente competitivas e adequadas para diferentes cenários. Confira os principais benefícios:

1. Acessibilidade                                                                                                              
Pesquisadores, desenvolvedores de IA e outros profissionais podem explorar e experimentar com SLMs sem a necessidade de investir em múltiplas GPUs ou equipamentos especializados.

2. Eficiência                                                                                                                     
Por serem mais compactos, os SLMs consomem menos recursos, possibilitando treinamento e implantação mais ágeis.

3. Desempenho eficaz
A eficiência dos SLMs não compromete o desempenho. Em alguns casos, esses modelos podem oferecer resultados iguais ou até melhores do que os modelos maiores. Por exemplo, o GPT-4o mini supera o GPT-3.5 Turbo em benchmarks de compreensão de linguagem, resposta a perguntas, raciocínio lógico, raciocínio matemático e geração de código.

4. Maior controle de privacidade e segurança
Devido ao tamanho reduzido, os SLMs podem ser implementados em ambientes privados, como nuvens corporativas ou servidores locais. Isso melhora a proteção dos dados e a gestão de ameaças cibernéticas, especialmente em setores sensíveis como finanças e saúde.

5. Baixa latência
Menos parâmetros resultam em tempos de processamento mais curtos, permitindo respostas rápidas. Por exemplo, os modelos Granite 3.0 1B-A400M e Granite 3.0 3B-A800M possuem contagens de parâmetros totais de 1 bilhão e 3 bilhões, respectivamente, mas suas contagens de parâmetros ativos durante a inferência são de apenas 400 milhões e 800 milhões, o que minimiza a latência e mantém o alto desempenho.

6. Sustentabilidade ambiental
Por demandarem menos recursos computacionais, os SLMs consomem menos energia, reduzindo significativamente a pegada de carbono.

7. Redução de Custos
Organizações podem economizar em desenvolvimento, infraestrutura e despesas operacionais, como a aquisição de grandes volumes de dados de treinamento de alta qualidade e o uso de hardware avançado, necessários para operar modelos massivos.

>>Leitura recomendada: Como adotar a IA generativa nas empresas

Limitações dos Small Language Models

Embora os small language models (SLMs) ofereçam muitas vantagens, eles também enfrentam desafios semelhantes aos LLMs.

Essas limitações são importantes para empresas que desejam integrar SLMs em seus fluxos de trabalho internos ou utilizá-los comercialmente de acordo com as variáveis do contexto.

1. Tendência ao Viés

Assim como os LLMs, os SLMs podem reproduzir vieses presentes nos dados de treinamento ou herdados de modelos maiores. Esse efeito colateral pode impactar a confiabilidade e a neutralidade de seus outputs.

2. Desempenho reduzido em tarefas complexas

Por serem frequentemente ajustados para tarefas específicas, os SLMs podem ter desempenho inferior em tarefas complexas que exigem conhecimento amplo e diversificado.

3. Generalização limitada

Diferentemente dos LLMs, que possuem uma base de conhecimento ampla, os SLMs são mais adequados para tarefas linguísticas direcionadas, o que os torna menos eficazes em generalizações ou aplicações que exigem uma visão abrangente.

4. Alucinações

Assim como os LLMs, os SLMs podem produzir resultados incorretos ou imprecisos, conhecidos como “alucinações”. Por isso, é fundamental validar os outputs para garantir que as informações geradas sejam factualmente corretas.

>>Leitura recomendada: IA generativa em ação: transformando dados em decisões estratégicas

Exemplos de aplicações com Small Language Models

Os small language models (SLMs) vêm sendo utilizados em uma variedade de aplicações práticas, demonstrando sua eficiência e versatilidade em diversos setores. Confira alguns exemplos:

1. Resumos de conteúdo

Modelos como o Llama 3.2 1B e 3B podem ser usados para resumir discussões, criando itens de ação, como eventos em um calendário. Já o Gemini Nano pode resumir gravações de áudio e transcrições de conversas, otimizando o fluxo de informações.

2. IA Generativa

Modelos compactos podem ser implementados para completar e gerar texto ou código de software. Exemplos como os modelos granite-3b-code-instruct e granite-8b-code-instruct são capazes de gerar, explicar e traduzir código a partir de comandos em linguagem natural.

3. Tradução de idiomas

Muitos SLMs são multilíngues e treinados em diversas línguas, permitindo traduções rápidas e contextualizadas. Graças à sua capacidade de compreender o contexto, eles produzem traduções quase precisas, mantendo as nuances e significados do texto original.

4. Manutenção preditiva

Por serem compactos, os SLMs podem ser implantados diretamente em dispositivos locais, como sensores ou equipamentos de Internet das Coisas (IoT). Isso possibilita que fabricantes usem os modelos para analisar dados em tempo real e prever necessidades de manutenção em maquinários e equipamentos.

5. Análise de sentimentos

Além de processar e entender linguagem, os SLMs são capazes de classificar grandes volumes de texto de forma objetiva. Isso os torna ideais para analisar feedbacks de clientes, identificando o sentimento predominante por trás das mensagens.

6. Assistência à navegação veicular

SLMs rápidos e compactos podem ser integrados aos computadores de bordo de veículos. Com suas capacidades multimodais, esses modelos conseguem combinar comandos de voz com classificação de imagens para identificar obstáculos, além de acessar informações sobre regras de trânsito para ajudar motoristas a tomarem decisões mais seguras e informadas.

7. Setor financeiro

Empresas que precisam identificar e-mails ou documentos com potenciais impactos regulatórios ou de governança podem usar SLMs para sinalizá-los. Esses modelos podem rodar nos mesmos servidores onde os dados estão armazenados, reduzindo custos com armazenamento adicional, uso de processadores avançados ou transporte de dados pela rede.

Em um cenário corporativo onde a eficiência é fundamental, escolher o modelo certo para cada projeto—seja um LLM de propósito geral ou um SLM específico de domínio—se torna uma decisão estratégica. Líderes que continuarem investindo no aprendizado e na otimização de suas ferramentas de IA estarão mais bem posicionados para competir em seus mercados. Conte com a Opus Software para transformar os seus projetos em realidade. Vamos conversar?

projetos ágeis

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Newsletter

Insights de tecnologia para você!

Não compartilharemos seu e-mail com terceiros e também prometemos não enviar spams. Ao informar seu e-mail, você concorda com nossa Política de Privacidade.

Conteúdos relacionados

Confira nesse artigo como evitar a miopia estratégica no desenvolvimento de software para ter sucesso nos seus projetos.
Confira dicas práticas para fazer uma boa análise de requisitos nos seus projetos de software, reduzindo custos e pre...
Veja nesse artigo como incluir a Inteligência Artificial no seu planejamento estratégico de TI para que ele seja adap...