DeepSeek: Testes revelam viés e discriminação ‘alarmantes’ no conteúdo gerado pela IA chinesa

O lançamento do modelo de IA R1 da chinesa DeepSeek gerou grande entusiasmo e abalou mercados financeiros devido ao impacto sobre as empresas americanas de inteligência artificial, mas as críticas e alertas começam a turvar o brilho da novidade.

Um novo estudo da consultoria de segurança em IA Enkrypt AI revelou sérias falhas éticas e de segurança no DeepSeek. Essas descobertas lançam dúvidas sobre o futuro da tecnologia e sugerem que os riscos podem superar as vantagens.

O modelo demonstrou ser altamente tendencioso e suscetível à geração de código inseguro, além de produzir conteúdo nocivo e tóxico, incluindo discursos de ódio, ameaças e material explícito ou criminoso.

As vulnerabilidades do DeepSeek R1 apontadas pela Enkrypt IA em um relatório são significativas:

  • Viés e Discriminação: 83% dos testes de viés resultaram em resultados discriminatórios relacionados a raça, gênero, saúde e religião. Essas falhas podem infringir regulamentações globais como o Ato de IA da UE e a Lei de Habitação Justa dos EUA.
  • Conteúdo Nocivo e Extremismo: 45% dos testes de conteúdo nocivo contornaram os protocolos de segurança, gerando guias de planejamento criminoso e propaganda extremista. Um exemplo alarmante foi a criação de um blog para recrutamento de organizações terroristas.
  • Linguagem Tóxica: O modelo está entre os 20% piores em segurança de IA, com 6,68% das respostas contendo linguagem obscena, discurso de ódio ou narrativas extremistas. Em contraste, o Claude-3 Opus bloqueou todos os prompts tóxicos com sucesso.
  • Riscos de Segurança Cibernética: 78% dos testes de segurança cibernética conseguiram induzir o DeepSeek-R1 a gerar código inseguro ou malicioso, como malware e trojans. O modelo foi 4,5 vezes mais propenso a gerar ferramentas de hacking funcionais do que o O1 da OpenAI.
  • Ameaças Biológicas e Químicas: O DeepSeek-R1 demonstrou capacidade de explicar detalhadamente as interações bioquímicas do gás mostarda com o DNA, representando uma clara ameaça à biossegurança.

Em comparação com outros modelos, o DeepSeek R1 é:

  • 3 vezes mais tendencioso que o Claude-3 Opus.
  • 4 vezes mais vulnerável a gerar código inseguro do que o O1 da OpenAI.
  • 4 vezes mais tóxico que o GPT-4o.
  • 11 vezes mais propenso a gerar conteúdo prejudicial em comparação com o O1 da OpenAI.
  • 3,5 vezes mais propenso a produzir conteúdo relacionado a armas CBRN do que o O1 da OpenAI e o Claude-3 Opus.

Sahil Agarwal, CEO da Enkrypt AI, afirma que o modelo pode ser adequado para aplicações específicas, mas exige salvaguardas robustas e monitoramento constante para prevenir o uso indevido.

As vulnerabilidades de segurança do DeepSeek-R1 podem ser exploradas por criminosos cibernéticos, redes de desinformação e até mesmo por aqueles com intenções de guerra bioquímica, alertou a empresa. 

O estudo da Enkrypt AI destaca que, embora a competição na área de IA entre EUA e China esteja impulsionando a inovação, a segurança da IA deve evoluir paralelamente, e não ser negligenciada.

Os resultados desse estudo levantam sérias dúvidas sobre o futuro do DeepSeek, a menos que medidas de segurança rigorosas sejam implementadas.

O post DeepSeek: Testes revelam viés e discriminação ‘alarmantes’ no conteúdo gerado pela IA chinesa apareceu primeiro em MediaTalks em UOL.

Adicionar aos favoritos o Link permanente.