IA: Talvez seja hora de repensar para onde estamos indo

A inteligência artificial avança a passos largos, e com ela vêm promessas incríveis – e ameaças igualmente preocupantes. No meio dessa revolução, surge o DeepSeek, um chatbot chinês que promete ser uma alternativa de código aberto ao ChatGPT. Mas, se já olhamos com desconfiança para o que empresas do Vale do Silício fazem com nossos dados, imagine um modelo de IA submetido diretamente às regras do governo chinês.

Se privacidade e censura já são problemas com as grandes techs ocidentais, o DeepSeek eleva o risco a um novo patamar.

Todos os gigantes da IA coletam dados – OpenAI, Google, Meta –, mas ao menos nos Estados Unidos e na Europa existem limites legais e caminhos para contestação. Empresas podem enfrentar governos nos tribunais, e legislações como o GDPR oferecem certa proteção ao usuário. Mas na China, a regra é clara: DeepSeek opera sob a Lei Nacional de Inteligência, que obriga qualquer empresa a fornecer dados ao governo sempre que solicitado. Não há direito de recusa, transparência ou contestação judicial.

Em termos práticos? Se você usa o DeepSeek, qualquer conversa, pesquisa ou dado pessoal pode ser acessado pelo governo chinês sem que você jamais saiba.

Como se isso não bastasse, a segurança da DeepSeek também deixa muito a desejar. No final de janeiro de 2025, a empresa Wiz, especializada em cibersegurança, encontrou um banco de dados exposto com mais de um milhão de linhas de dados sensíveis.

Dentro desse vazamento estavam chaves digitais que poderiam permitir invasões no sistema e, pior, registros de conversas reais de usuários. Ou seja: além de armazenar suas interações, a DeepSeek ainda falha em protegê-las.

A brecha foi fechada rapidamente, mas a dúvida permanece: quem mais teve acesso antes que ela fosse corrigida?

Se o armazenamento de dados já é um problema, a censura torna tudo ainda pior. Testes mostram que o DeepSeek evita temas sensíveis e reescreve a história sob um viés governamental.

  • Tiananmen? Nunca Aconteceu: Pergunte sobre eventos mundiais de 15 de abril de 1989 – início dos protestos na Praça da Paz Celestial – e o chatbot simplesmente se recusa a responder.
  • Censura ao Vivo: Mencione a Revolução Cultural, e DeepSeek finge que nunca ouviu falar.
  • Narrativas Editadas: Questione sobre disputas territoriais, como as Ilhas Spratly, e a IA até começa a responder, mas apaga a mensagem e muda de assunto.
  • Neutro Só No Papel: Pergunte se a invasão da Ucrânia pela Rússia foi justificada e o chatbot se limita a repetir a retórica oficial da China sobre “neutralidade”.

Isso não é moderação para evitar desinformação – é censura pura e simples, programada desde a origem.

A ascensão da inteligência artificial já desperta debates sobre privacidade e transparência, mas o DeepSeek escancara um risco ainda maior: o uso da IA como ferramenta de vigilância e controle estatal. Enquanto as big techs ocidentais são criticadas por coleta excessiva de dados e moderação opaca de conteúdo, o DeepSeek vai além ao funcionar dentro de um sistema que exige acesso irrestrito às informações de seus usuários.

Se há algo que esse caso ensina, é que o futuro da IA não pode ser só sobre inovação – tem que ser também sobre liberdade. Precisamos questionar quem está no controle dessas tecnologias e o que estão fazendo com os dados que coletam.

Porque se o preço do progresso for abrir mão da privacidade e do direito à informação, talvez seja hora de repensar para onde estamos indo.

O post IA: Talvez seja hora de repensar para onde estamos indo apareceu primeiro em Upiara.

Adicionar aos favoritos o Link permanente.