Notícia

DeepSeek: o impacto na sociedade

A Omnisinal faz um balanço sobre a implementação da nova ferramenta de IA

28 de fevereiro, 2025
DeepSeek: o impacto na sociedade
A DeepSeek continua a avançar rapidamente no setor da inteligência artificial (IA) e promete desafiar ainda mais a OpenAI nos próximos meses.
A empresa chinesa, que já está integrada no Microsoft Copilot – repare-se que começaram a aparecer os mesmos botões de comando de procura e pensamento – prepara-se para lançar uma nova versão do seu modelo de raciocínio, o DeepSeek-R2.

Inicialmente previsto para maio, o lançamento pode ocorrer mais cedo, segundo a Reuters. O DeepSeek-R2 continuará com custos operacionais mais baixos do que os concorrentes e promete ser mais potente, avançado, rápido e eficiente. Trará melhorias significativas na capacidade de programação e no raciocínio em vários idiomas, superando a limitação atual ao inglês.

O impacto do DeepSeek-R2 será especialmente relevante no mercado asiático, onde a empresa procura afirmar a sua posição e competir diretamente com o Gemini, da Google, presente em diversos dispositivos Android. A Honor e a Oppo já anunciaram a integração do DeepSeek nos smartphones até porque a nova versão pode trazer funcionalidades ainda mais competitivas para desafiar a Google no mercado europeu.

Contudo, a DeepSeek enfrenta desafios regulatórios, especialmente devido às restrições impostas pelos Estados Unidos, que lideram o setor da IA e mantêm a disputa tecnológica intensa com a China.

Nvidia reconhece o impacto do DeepSeek

Durante uma apresentação de resultados, o CEO da Nvidia, Jensen Huang elogiou a inovação trazida pelo modelo chinês e reconheceu a incerteza causada pelas políticas comerciais dos EUA.

Huang destacou que os modelos como o OpenAI GPT-4 e o DeepSeek-R1 “aplicam inferência” e exigem “modelos de raciocínio [que] podem consumir 100 vezes mais computação”. A natureza open-source do DeepSeek-R1 gerou um “entusiasmo global”, permitindo que os criadores de IA pudessem aplicar técnicas semelhantes para a melhoria dos seus próprios modelos.

Apesar de serem tecidos elogios, a verdade é que o aparecimento do R1 foi visto como uma ameaça à liderança da empresa norte-americana e provocou uma forte queda nas suas ações, no final de janeiro.

Não obstante, a Nvidia enfrenta desafios no cenário geopolítico. A diretora financeira da empresa, Colette Kress, afirmou que paira uma incerteza sobre as possíveis taxas alfandegárias impostas pelo governo americano: “até percebermos melhor qual é o plano do Governo dos EUA ou o seu calendário. Estamos à espera.”.

Regulamentação e preocupações com a segurança

Em Portugal, a Autoridade Nacional de Comunicações (Anacom) está a analisar a IA chinesa à luz da legislação portuguesa e da regulamentação promulgada sobre IA. Uma reunião de “alto nível” que contou com a presença do Centro Nacional de Cibersegurança (CNCS) e da Comissão Nacional de Proteção de Dados (CNPD) foi realizada para discutir o tema e os trabalhos continuam em andamento “ao nível técnico”.

O governo português, designadamente o Ministério da Juventude e da Modernização, também está a avaliar as implicações da utilização do DeepSeek para garantir a conformidade com as regulamentações europeias. Além disso, a CNPD iniciou uma investigação sobre a atividade da empresa chinesa, recomendando cautela aos utilizadores ao interagirem com ferramentas de IA generativa.

Países da Europa, Ásia, América e Oceânia decidiram bloquear o uso da DeepSeek por parte de funcionários públicos, alegando preocupações com a segurança e possíveis interferências do governo chinês na gestão da informação.

Ciberameaças e riscos associados

A popularidade da DeepSeek também levantou alertas no setor de segurança cibernética.

A Kaspersky relatou um aumento nas fraudes online, roubo de credenciais e exploração de vulnerabilidades associadas ao modelo.

Entre os principais riscos apontados estão a disseminação de código malicioso devido ao caráter open-source da DeepSeek e a criação de páginas falsas para roubo de dados dos utilizadores. Foram, também, identificadas fraudes financeiras que envolveram a venda especulativa de tokens de criptomoedas associados à plataforma, associações que se confirmaram falsas.

Outro problema é o risco de "alucinações" nos resultados da IA, que podem gerar respostas imprecisas ou enganosas em contextos críticos. Segundo Leonid Bezvershenko, pesquisador da Kaspersky, os cibercriminosos já exploram modelos de IA para criar e-mails de phishing e conteúdos enganosos.

A Kaspersky alerta que, embora a transparência do open-source traga benefícios, também pode aumentar os riscos éticos e de segurança. A empresa recomenda que os utilizadores adotem medidas de proteção robustas e sigam as boas práticas. Evitar compartilhar dados sensíveis e verificar sempre a veracidade das informações obtidas por IA generativa devem ser premissas.

Fontes: Jornal de Notícias, Jornal Económico, Sapo.pt

Subscreva a nossa newsletter

Mantenha-se atualizado(a) recebendo todas as últimas novidades no seu endereço eletrónico.