Ilya Sutskever, ex-cientista-chefe da OpenAI, fundou uma nova empresa chamada "Safe Superintelligence".
Saiba maisO objetivo é desenvolver uma inteligência artificial superinteligente de forma segura, o que é visto como um oxímoro por muitos.
Saiba maisA empresa promete perseguir a superinteligência e a segurança em conjunto, com ênfase na superinteligência.
Saiba maisA ideia de uma superinteligência artificial capaz de subjugar a humanidade é uma preocupação real para muitos especialistas.
Saiba maisAparentemente, a experiência de Sutskever na OpenAI o deixou apreensivo com os riscos da superinteligência.
Saiba maisA empresa afirma que sua missão, nome e roadmap de produtos estão alinhados para "alcançar a superinteligência segura".
Saiba maisMuitos especialistas questionam a viabilidade desse objetivo, afinal, como pode a superinteligência ser realmente controlada?
Saiba maisAlguns argumentam que a corrida pela superinteligência é imparável, com a segurança sendo um conceito relativo.
Saiba maisA humanidade frequentemente subestimou os riscos de novas tecnologias, e a superinteligência pode representar um desafio sem precedentes.
Saiba maisMuitos defendem que as empresas de IA deveriam focar em desenvolver essa tecnologia de forma ética e responsável.
Saiba maisAlguns sugerem que a superinteligência só poderá ser considerada segura com uma regulamentação e controle rigorosos.
Saiba maisEmbora a Safe Superintelligence tenha objetivos nobres, seu nome parece um oxímoro para muitos especialistas.
Saiba maisNão perca nenhuma informação sobre este conteúdo. Clique abaixo e veja a matéria completa.
Saiba maisAcompanhe tecnologia, conteúdo de notícias em nosso blog.
Saiba mais