2025 marca uma virada decisiva na tecnologia: de um lado, a computação quântica começa a influenciar decisões estratégicas em segurança e pesquisa; de outro, a inteligência artificial generativa já está transformando o cotidiano em empresas, governos e na vida das pessoas.
Ambas as tecnologias têm o potencial de mudar radicalmente a economia, o trabalho e a vida humana, com a computação quântica prometendo resolver problemas além do alcance dos supercomputadores atuais e a IA generativa remodelando como interagimos com sistemas, geramos informações e trabalhamos.
Mas, essas possibilidades vêm acompanhadas de riscos reais: desde a quebra de criptografia pós-quântica até a ameaça de uma Inteligência Artificial Geral (AGI) sem controle adequado, como alertam especialistas como Geoffrey Hinton.
Vem entender um pouco melhor!
Computação Quântica
O Google anunciou à Reuters em fevereiro de 2025 que espera trazer aplicações comerciais reais em até cinco anos, com foco em áreas como ciência de materiais, desenvolvimento de baterias para carros elétricos e descoberta de fármacos, um sinal de otimismo quanto à maturidade da tecnologia. Já a Nvidia aponta que a utilidade prática da computação quântica ainda pode estar a duas décadas de distância. O ponto crítico é a implementação da tolerância a falhas: a habilidade de garantir precisão em cálculos mesmo com ruído e instabilidade nos qubits.
A trajetória para viabilidade está bem definida pela IBM, que em junho de 2025 detalhou um roadmap ambicioso e pretende lançar um computador quântico prático até 2029, com 200 qubits lógicos, o início de uma transição para sistemas tolerantes a falhas em escala real.
Mesmo antes de termos computadores quânticos plenamente funcionais, a segurança já está se adaptando. Países como os EUA começaram a implementar padrões de criptografia pós-quântica para proteger dados atuais contra ataques futuros usando computação quântica. Empresas e governos precisam se preparar para esse cenário, pois o desenvolvimento dessa tecnologia avança rapidamente.
IA Generativa


A IA generativa já está em uso, o que permite um panorama mais amplo e realista sobre seu impacto no mundo. Em agosto de 2025, a OpenAI lançou o GPT-5, descrito como seu modelo mais inteligente, útil e com melhor capacidade de raciocínio até então. O lançamento recebeu avaliações mistas: embora elogiado pela utilidade prática e acessibilidade, foi considerado insuficiente como avanço decisivo rumo à AGI por especialistas e analistas de mercado.
E agora você pode estar se perguntando: “ué, mas atingir a inteligência artificial geral não é uma ameaça para a humanidade? Por que os especialistas buscam por ela?”
O motivo de cientistas buscarem atingir a AGI não é porque todos acreditam que será algo 100% seguro, mas porque os potenciais benefícios são grandes, ao ponto de alguns considerarem que não a buscar seria “desperdiçar uma oportunidade histórica”.
Direto ao ponto, a AGI poderia:
Resolver problemas que hoje parecem insolúveis
Acelerar a cura de doenças, criar fontes de energia limpa, reverter danos ambientais e encontrar soluções para crises globais muito mais rápido que a ciência humana atual.
Acelerar descobertas científicas e tecnológicas
Inovar em áreas como física, biotecnologia, exploração espacial e engenharia de materiais, campos em que avanços hoje levam décadas.
Automatizar tarefas intelectuais complexas
Além de funções repetitivas, lidar com atividades criativas e estratégicas em escala global, potencialmente reduzindo custos.
Por que isso também é visto como perigoso:
- Uma AGI, por definição, teria capacidade de se adaptar, aprender e criar estratégias, o que pode torná-la imprevisível.
- Se mal projetada ou controlada, poderia ser usada para manipulação em massa, guerras cibernéticas ou até ações físicas perigosas.
- Existe o chamado “risco de alinhamento”: mesmo programada para fazer o bem, ela poderia interpretar essa ordem de forma que prejudicasse os humanos, simplesmente por “pensar” de maneira diferente.
Por isso, a discussão sobre alinhamento (fazer a IA entender e seguir valores humanos) e governança global está tão intensa, especialmente porque a corrida para ser o primeiro a atingir a AGI já começou, e se atrasar pode significar “perder a liderança” para outro país ou empresa.
Geoffrey Hinton, considerado o “pai” da IA moderna e vencedor do Prêmio Turing (o “Nobel da computação”), propôs na conferência Ai4 um paradigma inovador: construir sistemas com “instintos maternais”, para que as IAs cuidem dos humanos em vez de tentar dominá-los. Essa ideia surgiu como resposta ao risco de sistemas superinteligentes agirem fora de controle.
A Governança Global poderia incluir:
Acordos internacionais obrigatórios
Modelos semelhantes ao Tratado de Não Proliferação Nuclear, onde países signatários se comprometem a respeitar limites e a compartilhar auditorias sobre seus sistemas de IA avançada.
Organismos de supervisão independentes
Criação de uma “Agência Internacional para IA”, proposta defendida por pesquisadores como Yoshua Bengio, para monitorar laboratórios, impor padrões e verificar se sistemas de alto risco estão alinhados com valores humanos.
Transparência em pesquisas críticas
Divulgação de métodos e testes de segurança (sem revelar detalhes que possam facilitar uso indevido), permitindo que outros validem se a tecnologia é segura antes do lançamento.


Se 2025 confirma algo, é que o futuro não será linear. A computação quântica se move com inevitabilidade estratégica, ainda que lenta, enquanto a IA generativa já está redesenhando o presente. Quando esses campos convergirem, com IA projetando algoritmos quânticos e quântica acelerando os treinamentos de modelos de inteligência artificial, surgirão oportunidades inéditas, mas também riscos inéditos.
Por isso, mapear cenários, preparar talentos e adotar governança tecnológica são passos urgentes, não apenas para acompanhar a inovação, mas para garantir que ela sirva à humanidade de forma ética e sustentável.
Você já tinha parado para pensar em tudo isso?
Referências:












