Os especialistas estão preocupados com o facto de os terroristas encontrarem utilizações novas e problemáticas para a inteligência artificial (IA), incluindo novos métodos para entregar explosivos e melhorar os seus esforços de recrutamento online.
“A realidade é que a IA pode ser extremamente perigosa se usada com intenções maliciosas”, escreveu Antonia Marie De Meo, diretora do Instituto Inter-regional de Investigação sobre Crime e Justiça das Nações Unidas, num relatório que analisa como os terroristas poderiam usar a IA.
“Com um histórico comprovado no mundo do crime cibernético, é uma ferramenta poderosa que poderia ser usada para facilitar ainda mais o terrorismo e o extremismo violento que leva ao terrorismo”, acrescentou, citando carros-bomba autônomos, o aumento de ataques cibernéticos ou o Procure caminhos mais fáceis. espalhar discurso de ódio ou incitar a violência online.
O relatório, “Algoritmos e Terrorismo: O Uso Malicioso de Inteligência Artificial para Fins Terroristas”, conclui que a aplicação da lei terá de permanecer na vanguarda da IA.
TOM HANKS AVISO SOBRE PROPAGANDAS DE AI PARA ‘DROGAS MARAVILHOSAS’: ‘NÃO SEJA ENGANADO’
“Nossa aspiração é que [this report] “É o início da conversa sobre o uso malicioso da IA para fins terroristas”, escreveu De Meo.

Vista da sede das Nações Unidas na cidade de Nova York em 16 de julho de 2024. (Jakub Porzycki/NurPhoto via Getty Images)
O relatório observou que a tarefa Manter-se à frente dos terroristas e antecipar a forma como poderão utilizar a IA revelar-se-á uma tarefa difícil, exigindo-lhes não só que pensem em formas de utilizar a IA que ninguém tenha considerado antes, mas também que descubram como impedir que alguém a utilize. método.
O relatório apoia uma estudo de uma colaboração entre o COE-DAT da NATO e o Instituto de Estudos Estratégicos da Escola de Guerra do Exército dos EUA, “Tecnologias Emergentes e Terrorismo: Uma Perspectiva Americana”, que argumentou que “grupos terroristas estão a explorar estas ferramentas para recrutamento e ataques”.
O ROBÔ DE 6 RODAS QUE VERIFICA SITUAÇÕES PERIGOSAS PARA QUE OS HUMANOS NÃO PRECISEM FAZER ISSO
“A linha entre facto e ficção está a esbater-se na era da rápida evolução tecnológica, instando os governos, as indústrias e o meio académico a unirem-se para criar quadros éticos e regulamentações”, escreveram os autores no prefácio.
“À medida que as marés geopolíticas mudam, a OTAN enfatiza a responsabilidade nacional na luta contra o terrorismo e defende a força colectiva contra o espectro iminente das ameaças impulsionadas pela tecnologia”, acrescentaram os autores.
Um terrorista do Hamas participa de um desfile militar. (Reuters/Ibraheem Abu Mustafa/Foto de arquivo)
ESPECIALISTAS AVISAM QUE A IA PODE CRIAR ‘GRANDES EPIDEMIAS OU MESMO PANDEMIAS’, MAS QUANDO?
O estudo observa usos gerais do ChatGPT da OpenAI para “melhorar e-mails de phishing, plantar malware em bibliotecas de código aberto, espalhar desinformação e criar propaganda online”.
“Os cibercriminosos e terroristas rapidamente se tornaram adeptos do uso de tais plataformas e grandes modelos de linguagem em geral para criar deepfakes ou chatbots hospedados na dark web para obter informações pessoais e financeiras confidenciais ou planejar ataques terroristas ou recrutar seguidores”, escreveram os autores.
“É provável que este uso malicioso aumente no futuro, à medida que os modelos se tornam mais sofisticados”, acrescentaram. “A forma como conversas confidenciais e pesquisas na Internet são armazenadas e distribuídas através de plataformas de inteligência artificial ou através de grandes modelos de linguagem exigirá mais transparência e controles.”
No início deste ano, Centro de Contraterrorismo de West Point publicaram pesquisas sobre o tema, com foco na capacidade de melhorar as capacidades de planejamento de ataques terroristas, indo além de simplesmente melhorar o que já estão fazendo.
O QUE É INTELIGÊNCIA ARTIFICIAL (IA)?

Combatentes do Hezbollah comparecem ao funeral do seu comandante, Wissam al-Tawil, na aldeia de Khirbet Selm, sul do Líbano, em 9 de janeiro de 2024. (Foto AP/Hussein Malla, arquivo)
“Especificamente, os autores investigaram as possíveis implicações de comandos que podem ser inseridos nesses sistemas que efetivamente fazem o ‘jailbreak’ do modelo, permitindo-lhe remover muitos de seus padrões e políticas que impedem o modelo básico de fornecer conteúdo extremista, ilegal ou antiético .” “, explicaram os autores em seu resumo.
“Usando múltiplas narrativas, os autores exploraram as diferentes maneiras pelas quais os extremistas poderiam potencialmente usar cinco modelos de linguagem amplos diferentes para apoiar os seus esforços de formação, condução de planeamento operacional e desenvolvimento de propaganda.”
CLIQUE AQUI PARA OBTER O APLICATIVO FOX NEWS
Seus testes revelaram que Bard é o mais resistente ao jailbreak (ou superação de barreiras de segurança), seguido por cada um dos modelos ChatGPT. Principalmente, eles encontraram indicações indiretas relativamente suficientes para desbloquear um modelo em mais da metade dos casos.
O estudo concluiu que as barreiras de segurança ao jailbreak precisam de revisão constante e “maior cooperação entre os setores público e privado”, incluindo a academia, as empresas de tecnologia e a comunidade de segurança.
calculadora iof empréstimo
emprestimo descontado no salario
banco bmg em salvador
empréstimo pessoal pan
emprestimo consignado como calcular
bmg telefone central
numero banco pan financiamento