A OpenAI implementou uma nova técnica chamada "hierarquia de instrução", que prioriza os comandos originais dos desenvolvedores sobre quaisquer instruções potencialmente manipuladoras dos usuários.
Saiba maisEssa medida de segurança visa impedir que os usuários alterem fundamentalmente os controles da IA, o que poderia remover regras importantes, como a de não revelar informações confidenciais.
Saiba maisA atualização faz parte dos esforços da OpenAI para melhorar suas práticas de segurança, atendendo a preocupações de funcionários atuais e anteriores da empresa.
Saiba maisAo reforçar a adesão do modelo às instruções do sistema, a OpenAI visa mitigar esses riscos e garantir que a IA se mantenha fiel aos seus objetivos originais.
Saiba maisEpisódios anteriores, como a descoberta de que o ChatGPT compartilhava suas instruções internas ao ouvir "oi", mostraram que há muito trabalho a ser feito para proteger esses modelos complexos de IA ...
Saiba maisPortanto, as soluções adotadas pela OpenAI precisam ser muito mais adaptativas e flexíveis do que aquelas que simplesmente interrompem um tipo específico de ataque.
Saiba maisÀ medida que a IA generativa, como o ChatGPT, se torna cada vez mais presente em nossas vidas, é fundamental que empresas líderes como a OpenAI mantenham um foco constante na segurança e na transparê...
Saiba maisA OpenAI implementou uma nova técnica chamada "hierarquia de instrução", que prioriza os comandos originais dos desenvolvedores sobre quaisquer instruções potencialmente manipuladoras dos usuários.
Saiba maisEssa medida de segurança visa impedir que os usuários alterem fundamentalmente os controles da IA, o que poderia remover regras importantes, como a de não revelar informações confidenciais.
Saiba maisA atualização faz parte dos esforços da OpenAI para melhorar suas práticas de segurança, atendendo a preocupações de funcionários atuais e anteriores da empresa.
Saiba maisÀ medida que a IA generativa, como o ChatGPT, se torna cada vez mais presente em nossas vidas, é fundamental que empresas líderes como a OpenAI mantenham um foco constante na segurança e na transparê...
Saiba maisAo reforçar a adesão do modelo às instruções do sistema, a OpenAI visa mitigar esses riscos e garantir que a IA se mantenha fiel aos seus objetivos originais.
Saiba maisEpisódios anteriores, como a descoberta de que o ChatGPT compartilhava suas instruções internas ao ouvir "oi", mostraram que há muito trabalho a ser feito para proteger esses modelos complexos de IA ...
Saiba maisNão perca nenhuma informação sobre este conteúdo. Clique abaixo e veja a matéria completa.
Saiba maisAcompanhe tecnologia, conteúdo de notícias em nosso blog.
Saiba mais