Salt Security descobre vulnerabilidades no ecossistema do ChatGPT

por | abril 2024 | Sem Categoria | 0 Comentários

Recentemente, pesquisadores da Salt Labs identificaram vulnerabilidades significativas no ecossistema do ChatGPT, uma das plataformas de IA gerativa mais populares, desenvolvida pela OpenAI. Essas vulnerabilidades poderiam permitir o acesso não autorizado a contas em sites de terceiros e dados sensíveis, colocando em risco a privacidade e a segurança dos usuários.

O surgimento do ChatGPT

ChatGPT marcou sua estreia como um avanço monumental no campo da IA, introduzindo ao público as plataformas de IA gerativa. Utilizando o modelo de Grande Modelo de Linguagem (LLM, na sigla em inglês), o ChatGPT oferece uma experiência de conversação quase humana, capaz de compreender e responder perguntas, auxiliar em diversas tarefas e até mesmo criar conteúdos complexos. No entanto, seus lançamentos iniciais possuíam uma limitação significativa: a incapacidade de acessar dados em tempo real, restringindo as interações apenas ao que estava disponível durante o processo de treinamento do modelo.

Para superar essa limitação, as plataformas de IA gerativa, incluindo o ChatGPT, evoluíram para incluir o conceito de ecossistema de IA gerativa. Esse avanço permite a conexão e troca de dados entre a plataforma de IA e serviços externos, como GitHub, Google Drive e Salesforce. Essas conexões transformaram o ChatGPT em uma ferramenta ainda mais poderosa, capaz de atuar em uma ampla gama de plataformas, otimizando fluxos de trabalho e proporcionando experiências mais interativas e produtivas.

Desafios de segurança no ecossistema do ChatGPT

A inovação tecnológica traz consigo novos riscos de segurança. No caso das plataformas de IA gerativa, esses riscos podem originar-se tanto na própria plataforma, devido a falhas de segurança, quanto no ecossistema gerativo de IA, por vulnerabilidades no código que conecta a IA a serviços externos ou nas próprias falhas de segurança desses serviços terceirizados. Dentre as vulnerabilidades descobertas pelos pesquisadores da Salt Labs, destacam-se ataques que não requerem interação do usuário para tomar controle de contas, demonstrando a gravidade e a sofisticação das ameaças.

A pesquisa da Salt Labs

Os pesquisadores da Salt Labs dedicaram-se a investigar o ecossistema do ChatGPT, descobrindo vulnerabilidades que permitiriam instalar plugins maliciosos nas contas dos usuários do ChatGPT sem sua aprovação. Esse tipo de ataque poderia comprometer não apenas os dados sensíveis no ChatGPT, mas também nas plataformas de terceiros conectadas.

Uma das vulnerabilidades destacadas foi um ataque de tomada de conta “zero-click” em múltiplos plugins, que poderia permitir a um atacante ganhar controle sobre as contas de uma organização em sites de terceiros, como o GitHub. Este ataque não necessita de qualquer ação por parte da vítima, ressaltando a importância de uma abordagem proativa na segurança das plataformas de IA.

A descoberta e a divulgação responsável dessas vulnerabilidades pelos pesquisadores da Salt Labs proporcionaram às empresas envolvidas – ChatGPT, PluginLab.AI e Kesem.ai – a oportunidade de corrigir essas falhas críticas de segurança. A rápida resposta e ação dessas empresas em endereçar e mitigar as vulnerabilidades destacam a importância da colaboração entre pesquisadores de segurança e desenvolvedores de plataformas tecnológicas.

A pesquisa realizada pela Salt Labs lança luz sobre vulnerabilidades significativas no ecossistema do ChatGPT, reforçando a necessidade de vigilância contínua e melhorias na segurança das plataformas de IA gerativa. À medida que essas tecnologias continuam a evoluir e a se integrar mais profundamente em nossas vidas, a segurança cibernética deve permanecer uma prioridade máxima para proteger os usuários contra ameaças emergentes. É crucial que tanto os desenvolvedores quanto os usuários permaneçam informados sobre os riscos de segurança e adotem práticas seguras para mitigar esses riscos.