Uma pesquisa recente realizada pela Lakera, uma empresa de segurança de IA, revelou uma tendência decepcionante. Apesar da rápida adoção da GenAI, apenas 5% dos especialistas entrevistados estão confiantes nas medidas de segurança que protegem as suas aplicações. Isto é especialmente alarmante dado que 90% destes profissionais estão a utilizar ou a aprender ativamente a GenAI.
- Para destacar a extensão da lacuna de segurança, Lakera desenvolveu Gandalf, uma plataforma de jogos educacionais projetada para identificar vulnerabilidades. Os jogadores devem tentar enganar o LLM básico, desenvolvido pela API OpenAI, e revelar senhas secretas, com cada nível apresentando cenários cada vez mais difíceis.
Você pode tentar ser um hacker e descobrir as senhas da IA aqui .
- Os resultados falam por si: de mais de 1 milhão de usuários, 200.000 enganaram a IA com sucesso, completando a tarefa em apenas 45 minutos, em média. Isso significa que mesmo aqueles com conhecimento técnico mínimo podem enganar a IA, sem falar em programas de hacking especialmente escritos.
A pesquisa também descobriu que quase 38% dos entrevistados classificaram as suas preocupações sobre vulnerabilidades como “altas” e outros 39% as classificaram como “moderadas”, mas muitas organizações continuam despreparadas para abordar totalmente o problema.
As barreiras à adoção da GenAI foram exploradas:
- Baixa confiabilidade e precisão estão no topo da lista (35%)
- Problemas de privacidade e segurança de dados (34%).
- Falta de pessoal qualificado (28%).
Chamando a atenção para o cenário de segurança em mudança e os riscos da implementação da GenAI, a necessidade de criar sistemas de segurança adaptados às novas tecnologias.