A nova empresa de Ilya Sutskever, cofundador da OpenAI, foi anunciada com o nome pouco convencional de “Safe Superintelligence”. O objetivo declarado é alcançar uma inteligência artificial superinteligente de maneira segura, porém muitos especialistas questionam a viabilidade desse empreendimento.
Principais Destaques
- Ilya Sutskever, ex-cientista-chefe da OpenAI, fundou uma nova empresa chamada “Safe Superintelligence”.
- O objetivo é desenvolver uma inteligência artificial superinteligente de forma segura, o que é visto como um oxímoro por muitos.
- A empresa promete perseguir a superinteligência e a segurança em conjunto, com ênfase na primeira.
O Conceito Aparentemente Contraditório
Ao nomear sua nova empresa, Sutskever optou por um conceito que, à primeira vista, parece uma contradição: “Safe Superintelligence” (Superinteligência Segura). Afinal, como pode a inteligência artificial superinteligente, que por definição ultrapassa a inteligência humana, ser realmente segura?
O Medo da Superinteligência
A ideia de uma superinteligência artificial capaz de subjugar a humanidade é um tema recorrente na ficção científica e uma preocupação real para muitos especialistas. Não é à toa que filmes como “Superintelligence” e livros como “Superintelligence: Paths, Dangers, Strategies”, de Nick Bostrom, exploram os perigos potenciais dessa tecnologia.
A Busca por Segurança

Aparentemente, a experiência de Sutskever na OpenAI o deixou apreensivo com os riscos da superinteligência. Relatos sugerem que ele tentou frear o desenvolvimento de uma inteligência artificial geral capaz de superar a inteligência humana, o que teria levado a sua saída da empresa.
A Promessa da Safe Superintelligence
Em seu site, a Safe Superintelligence afirma que sua missão, nome e roadmap de produtos estão totalmente alinhados para “alcançar a superinteligência segura”. A empresa promete perseguir a superinteligência e a segurança em conjunto, com ênfase na primeira.
Ceticismo Generalizado
No entanto, muitos especialistas em tecnologia e inteligência artificial questionam a viabilidade desse objetivo. Afinal, como pode a superinteligência, por definição superior à nossa, ser realmente controlada ou considerada segura?
Uma Corrida Imparável?
Alguns argumentam que a corrida pela superinteligência é imparável, impulsionada pelo avanço exponencial da tecnologia e pelo desejo de empresas e nações de obter essa vantagem competitiva. Nesse cenário, a segurança seria um conceito relativo e transitório.
Lições do Passado
Ao longo da história, a humanidade frequentemente subestimou os riscos de novas tecnologias, desde a energia nuclear até a engenharia genética. A inteligência artificial superinteligente pode representar um desafio sem precedentes.
Ética e Responsabilidade
Em vez de prometer uma “Safe Superintelligence”, muitos defendem que as empresas de IA deveriam focar em desenvolver essa tecnologia de forma ética e responsável, sempre priorizando o bem-estar da humanidade.
Regulamentação e Controle
Alguns sugerem que a superinteligência só poderá ser considerada segura com uma regulamentação e controle rigorosos, envolvendo não apenas as empresas, mas também governos e organizações internacionais.
Conclusão
Embora a Safe Superintelligence tenha objetivos nobres, seu nome parece um oxímoro para muitos especialistas. Em vez de prometer o impossível, talvez o foco devesse estar em desenvolver a inteligência artificial de forma ética, responsável e regulamentada, sempre colocando o bem-estar da humanidade em primeiro lugar.