OpenAI melhora recompensas para quem encontre falhas de segurança no ChatGPT
Existem cada vez mais perigos cibernéticos. Agora a OpenAI acaba de melhorar as recompensas para quem ajudar a empresa a proteger-se mais.
Nos últimos anos, a inteligência artificial transformou a forma como interagimos com a tecnologia. Ferramentas avançadas tornaram-se essenciais para empresas e utilizadores. No entanto, com essa evolução, os desafios de segurança também cresceram. Para garantir que os seus sistemas permanecem protegidos, a OpenAI decidiu reforçar os incentivos para investigadores que ajudem a identificar vulnerabilidades. Agora, a empresa está a investir mais na segurança das suas tecnologias, incluindo o popular ChatGPT.
OpenAI aumenta prémios para descoberta de falhas
A OpenAI anunciou um aumento significativo nos prémios para quem identificar falhas de segurança nos seus sistemas. Os investigadores agora podem receber até 100 mil dólares (92 mil euros) por descobertas relevantes. Antes, o valor máximo oferecido era de 20 mil dólares (18 mil euros).
Além disso o reforço no Cybersecurity Grant Program demonstra a preocupação da empresa com a proteção dos seus produtos. Com o crescimento do uso de ferramentas como o ChatGPT, garantir que estas são seguras tornou-se uma prioridade.
O impacto do Cybersecurity Grant Program
Lançado em 2023, o Cybersecurity Grant Program já financiou 28 investigações. Algumas dessas pesquisas resultaram em melhorias nas defesas automatizadas da OpenAI e por consequência do ChatGPT ajudaram a tornar o código da empresa mais seguro.
Por isso este programa funciona de forma semelhante aos tradicionais ‘bug bounties’, onde empresas pagam investigadores por identificarem vulnerabilidades. No entanto, a OpenAI vai além e também apoia estudos que tragam avanços na segurança da inteligência artificial.
Segurança e o futuro do ChatGPT
Além disso a crescente adoção do ChatGPT por empresas e utilizadores, garantir a integridade da ferramenta tornou-se essencial. Vulnerabilidades podem ser exploradas para manipulação de informações, ataques cibernéticos ou exposição de dados sensíveis.
A OpenAI tem investido continuamente para tornar o ChatGPT mais seguro e fiável. A colaboração com especialistas em segurança é uma estratégia fundamental para identificar riscos antes que possam ser explorados por utlizadores da IA.
Investigadores têm agora mais incentivos
Com o aumento dos prémios, a OpenAI espera atrair ainda mais especialistas em segurança para analisar os seus sistemas. O investimento reforça o compromisso da empresa em manter o ChatGPT e outras tecnologias protegidas contra ameaças cibernéticas.
Além disso o Cybersecurity Grant Program continua a crescer e a consolidar-se como um modelo de incentivo para a segurança digital. Ao apostar na colaboração com a comunidade de investigadores, a OpenAI assegura que as suas ferramentas permanecem robustas, fiáveis e seguras para todos os utilizadores.
E tu? Usas Chatgpt?