O MCP (Model Context Protocol) é um desses importantes protocolos, só que voltado para a IA, especificamente para os modelos LLM (Large Language Models). Ele estabelece um padrão seguro e escalável para que aplicações de IA consigam se tornar mais completas, robustas e úteis para o dia a dia.
O MCP se tornou muito relevante ultimamente na explosão dos modelos de IA e na demanda para que eles se tornem agentes multifuncionais em diversas tarefas. Por isso, é de suma importância entender como isso pode afetar o desenvolvimento de novos produtos.
Continue a leitura e entenda melhor.
Proposto inicialmente pela Anthropic e depois implementado em vários outros contextos, o MCP é um protocolo que visa organizar a conexão entre modelos LLMs e fontes externas de acesso a dados.
Por exemplo, se você precisa que um modelo de IA tenha acesso a dados de uma planilha ou do Google Drive de forma automatizada, o MCP é quem se encarrega disso.
É muito similar a uma API (Application Programming Interface), com a diferença de ser mais uma camada que facilita a vida de quem programa e de quem gerencia os produtos.
Quando um produto precisa se conectar com outro sistema já existente, isso é feito a partir de uma API. Digamos que seu produto precisa de um login via Google, por exemplo. Para tanto, é preciso acessar a API do Google e fazer a integração.
Imagem: Nora Sakal
Um MCP é um servidor que gerencia APIs para um modelo de IA, quase como uma empresa terceirizada que ajuda a administrar as múltiplas funções de um modelo.
Os modelos LLMs surgiram com ênfase muito grande na geração de textos e imagens. Com esse intuito temos modelos extremamente potentes e bem-sucedidos, como o ChatGPT, por exemplo. Contudo, com o tempo, a demanda por IA aumentou em outras funções também.
Hoje, é comum buscar soluções e modelos que funcionam como assistentes, cumprindo inúmeras funcionalidades, de forma integrada. Para isso, é preciso garantir que esse modelo seja capaz de conversar com outras ferramentas e fontes de dados.
É aí que o MCP se torna protagonista.
Imagem: ModelContextProtocol.io
O MCP funciona em uma arquitetura cliente-servidor. Vamos entender melhor essas duas partes.
É a aplicação ou software que vai utilizar o servidor MCP. Geralmente, são as próprias plataformas que hospedam modelos LLMs, como ChatGPT, Claude, Gemini, Copilot e outros.
Assim, os clientes enviam solicitações aos servidores MCP quando precisam acessar dados ou executar ações.
É um módulo específico criado no protocolo que gerencia a conexão com fontes de dados e o acionamento de ferramentas. Ou seja, o servidor MCP age como um intermediário entre a aplicação cliente e as fontes de dados.
Imagem: Descope
Pense nele como aquele colega de equipe que sabe onde está tudo: quando alguém precisa de um arquivo específico ou de uma informação rapidamente, o servidor MCP é quem vai buscar e trazer de volta. Ele conecta o modelo de IA aos recursos necessários, garantindo que tudo funcione de forma integrada.
Ao solicitar acesso a informações, o servidor fornece ao cliente os dados e o contexto que são necessários para formar uma resposta relevante.
Os modelos LLM já dependem de contexto para dar respostas mais úteis e assertivas, mas o fato de ter essa conversa automática com um servidor especializado em gerenciar essas conexões facilita muito todo o processo.
Imagem: Descope
Existem várias vantagens proporcionadas pelo uso do MCP, dentre elas:
Com o MCP, é possível conectar diferentes modelos de IA a uma única fonte de dados, sem necessidade de reescrever código ou fazer múltiplas integrações. Isso reduz o trabalho e melhora a produtividade.
Além disso, significa que a transição entre modelos se torna facilitada. Se um produto opta por trocar um modelo de IA por outro, não precisa refazer toda a sua conexão com fontes de dados.
Quando os modelos LLMs não têm acesso a dados atualizados e pertinentes, pode surgir o que chamamos de alucinações. Isto é, o modelo gera informações falsas ou incoerentes.
Com o MCP, esse risco é reduzido drasticamente, afinal, sempre que algum dado específico for solicitado, o modelo consegue acessá-lo automaticamente via servidor.
Com um padrão no acesso aos dados, há mais clareza para os times de tecnologia sobre o funcionamento de todo o fluxo. Além disso, melhora a segurança e possibilita a construção de ferramentas mais adaptáveis e escaláveis.
Quando um modelo LLM é treinado especificamente para determinado propósito, existem muitos dados nesse período de treinamento. Porém, após a etapa de treinamento, se a base de dados interna da empresa mudar e atualizar constantemente, é complicado retreinar o modelo com frequência.
O MCP permite que o modelo se adapte à nova realidade da empresa sem necessidade de retreiná-lo, apenas por meio do acesso a dados atualizados.
Agora que vimos melhor sobre o funcionamento do MCP, podemos também entender as diversas formas com que ele influencia o desenvolvimento de produtos. Vejamos as principais.
Com o MCP, modelos de IA conseguem acessar bases de dados confiáveis, como planilhas, arquivos do Google Drive, CRM e até repositórios de código.
Isso significa que as respostas e análises geradas são mais precisas e personalizadas, pois são baseadas em dados reais e organizados.
Sem o MCP, cada vez que um produto precisasse conectar um modelo de IA a uma nova fonte de dados, seria necessário criar uma integração do zero, o que gasta muitas horas de trabalho e pode criar códigos fragmentados.
Com o MCP, essa conexão é padronizada, o que economiza muito tempo. Assim, desenvolvedores e product managers conseguem focar no que realmente importa: a experiência do usuário e a estratégia de produto.
Outra grande vantagem para as empresas de produto é que a construção de produtos e features que dependem de IA se tornam menos complexas.
Com isso, o desenvolvimento se torna mais eficiente, o que influencia o lançamento de novos produtos e a produtividade diária, em geral.
Na fase de descoberta do produto, é possível conectar modelos a dados de suporte, feedbacks, métricas de uso e outros dados internos para facilitar a análise de informações e busca por oportunidades de melhoria.
Ou seja, é possível automatizar a busca das informações e até mesmo economizar o tempo da construção de prompt para focar na parte mais estratégica.
Apesar de suas vantagens, o MCP é uma tecnologia que também envolve alguns percalços e desafios. Vejamos quais são.
Ao permitir conexão com acessos externos, o protocolo lida com o desafio de aumentar a vulnerabilidade a ataques como injeção de código ou acesso indevido.
Outra questão é o próprio acesso a dados sensíveis e privados, o que pode comprometer o sigilo corporativo e trazer problemas. Como falamos antes, se o MCP permite o acesso a bases de dados internas das empresas, por exemplo, abre uma brecha para que o modelo consiga visualizar dados de forma não autorizada.
Esses são desafios reais, porém o MCP é um protocolo pronto para lidar com essas questões.
O excesso de chamadas e conexões a fontes externas pode tornar os modelos mais lentos e ineficientes, justamente o contrário do que se deseja.
Nesse sentido, cada implementação deve considerar bem o que vai precisar usar para chamar APIs e se conectar a fontes que realmente são importantes.
Servidores MCP precisam de constante monitoramento e atualização para que não se tornem vulneráveis. Afinal, como eles já gerenciam riscos e questões mais sensíveis, é importante sempre garantir conformidade.
Para ilustrar ainda mais o uso desse protocolo e sua importância no contexto das IAs LLMs, vamos entender os usos reais da tecnologia para o setor de produtos.
Primeiramente, vamos examinar o caso de produtos que adotam IA como funcionalidade, tais como assistentes inteligentes, sistemas de automação e soluções e modelos de análise de dados.
Nessa situação, o protocolo MCP vai ajudar a padronizar a integração com fontes externas de dados, de modo a tornar os produtos mais robustos e inteligentes.
Além disso, vai facilitar a escalabilidade e reduzir a dependência de prompts complexos.
Nessa segunda situação, os modelos de IA com MCP contratados são usados para apoiar as equipes de desenvolvimento.
Assim, designers, desenvolvedores e product managers conseguem analisar informações, automatizar tarefas e tomar decisões com base em fontes confiáveis, selecionadas a dedo.
A validação de hipóteses e a análise de métricas, por exemplo, são duas atividades altamente impactadas por esse tipo de uso. O protocolo de conexão aqui funciona bem para aprimorar esses modelos.
Outro uso interessante é o que transforma um modelo de IA em uma forma de CRM, com acesso aos dados de histórico de clientes. Assim, por exemplo, dá para integrar análises de outros setores com as ações do marketing/vendas, como um follow-up.
Também é possível fazer consultas ao CRM de forma facilitada, a partir de uma interação simples com o modelo.
Outros modelos com MCP analisam códigos, varrem documentações e ajudam com sugestões inteligentes para melhorar a parte da codificação. Ou seja, funcionam quase como IDEs mais completas e robustas, com a capacidade de economizar o tempo da equipe de desenvolvimento e reduzir o time to market.