sábado, 14 de setembro de 2024

Como um jogo pode ajudar a segurança cibernética?


Uma pesquisa recente realizada pela Lakera, uma empresa de segurança de IA, revelou uma tendência decepcionante. Apesar da rápida adoção da GenAI, apenas 5% dos especialistas entrevistados estão confiantes nas medidas de segurança que protegem as suas aplicações. Isto é especialmente alarmante dado que 90% destes profissionais estão a utilizar ou a aprender ativamente a GenAI.

  • Para destacar a extensão da lacuna de segurança, Lakera desenvolveu Gandalf, uma plataforma de jogos educacionais projetada para identificar vulnerabilidades. Os jogadores devem tentar enganar o LLM básico, desenvolvido pela API OpenAI, e revelar senhas secretas, com cada nível apresentando cenários cada vez mais difíceis.

Você pode tentar ser um hacker e descobrir as senhas da IA ​​aqui .

  • Os resultados falam por si: de mais de 1 milhão de usuários, 200.000 enganaram a IA com sucesso, completando a tarefa em apenas 45 minutos, em média. Isso significa que mesmo aqueles com conhecimento técnico mínimo podem enganar a IA, sem falar em programas de hacking especialmente escritos.

A pesquisa também descobriu que quase 38% dos entrevistados classificaram as suas preocupações sobre vulnerabilidades como “altas” e outros 39% as classificaram como “moderadas”, mas muitas organizações continuam despreparadas para abordar totalmente o problema.

As barreiras à adoção da GenAI foram exploradas:

  • Baixa confiabilidade e precisão estão no topo da lista (35%)
  • Problemas de privacidade e segurança de dados (34%).
  • Falta de pessoal qualificado (28%).

Chamando a atenção para o cenário de segurança em mudança e os riscos da implementação da GenAI, a necessidade de criar sistemas de segurança adaptados às novas tecnologias.