Meta e inteligência artificial Imagens SOPA No dia 2 de julho, a ANPD (Autoridade Nacional de Proteção de Dados) determinou a suspensão da vigência da nova Política de Privacidade da Meta, anunciada em 26 de junho, permitindo dados gerados e disponibilizados publicamente em suas plataformas – Facebook, Instagram, Messenger e WhatsApp – são usados para treinar sistemas generativos de IA (exclui apenas o conteúdo de “mensagens privadas entre amigos e familiares”). A prática também é adotada pela OpenAI e Google, e todos os outros modelos LLM (grandes modelos de linguagem). A decisão da ANPD baseou-se na inadequação da base legal do “interesse legítimo”, na falta de transparência no acesso ao dispositivo (opt-out) que permite ao usuário se opor ao uso de seus dados pessoais e na falta de salvaguardas para o tratamento de dados sensíveis (dados de crianças e adolescentes). Existem diversos pareceres disponíveis na internet, entre outros, do Data Privacy Brasil e VLK Advogados (“Explorando a decisão da ANPD – IA Training”, 4 de julho); Ambos analisam detalhadamente os argumentos da ANPD e os contra-argumentos da Meta. Esta decisão, no entanto, tem questões mais amplas que valem a pena investigar. Em primeiro lugar, as motivações políticas: a) ao “enquadrar” o Objetivo, a ANPD gera um efeito sistêmico sobre todas as big techs, representando uma primeira intervenção na atual “terra de ninguém”; b) a última versão do PL 2338, elaborado pela Comissão Temporária do Senado com o objetivo de estabelecer o Marco Regulatório da IA no Brasil, sugere a ANPD como entidade responsável pela coordenação do SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial ). Com esta decisão, a ANPD tenta demonstrar que é capaz de cumprir o seu papel, que tem sido desafiado pelo seu papel limitado no monitoramento da LGPD, pelo risco de considerar a IA apenas na perspectiva da proteção de dados e pela lacuna em profissionais especializados. conhecimento ; e c) em novembro, a reunião do G20 acontece no Rio de Janeiro, sob a presidência brasileira, e o tema da governança da IA está na ordem do dia. Do ponto de vista técnico, a) os dados publicamente disponíveis online são capturados através de uma técnica conhecida como “crawling”: um processo no qual bots de motores de busca (também conhecidos como “web crawlers” ou “spiders”) descobrem o conteúdo de um website – textos, imagens, vídeos ou outros tipos de arquivos -, formando conjuntos de dados sem qualquer curadoria (ou seja, incluem conteúdos problemáticos como imagens explícitas de estupro, pornografia, estereótipos malignos, insultos racistas e étnicos, além de desrespeitarem as proteções de direitos autorais estabelecido pelos criadores do conteúdo original); e b) o processo de treinamento de sistemas de IA transforma os dados pessoais originais – como números de cartão de crédito, CPF, informações de saúde, endereço, conta bancária – em “tokens”, que são as unidades básicas de texto ou código que um LLM AI usa para processar e gerar linguagem; os tokens podem ser caracteres, palavras, subpalavras ou outros segmentos de texto ou código. A tokenização é fundamental em modelos de IA porque padroniza a entrada de dados e reduz a dimensionalidade, permitindo que os modelos de IA capturem características de texto e relações entre palavras. Em seguida, os tokens são convertidos em representações numéricas (linguagem matemática de máquinas ou sistemas maquínicos). Os especialistas acreditam que é possível recuperar os tokens originais, embora não seja uma operação trivial e garantida, revertendo a anonimização dos dados com alguma precisão e com um custo computacional muito elevado. Os dados são a matéria-prima dos modelos de IA: quantidade e qualidade (diversidade) estão diretamente relacionadas com a precisão dos resultados, o desafio é equacionar a necessidade intrínseca de modelos com questões éticas como privacidade e dados tendenciosos (ou tendenciosos). Outro aspecto a ser considerado é que o futuro da inteligência artificial no Ocidente, mantendo o cenário atual, depende das big techs, que controlam a pesquisa, o desenvolvimento e a implementação da IA (inclui o poder computacional para processar modelos intensivos de dados em seus dados). centros espalhados pelo mundo – “computação em nuvem”). A probabilidade de o Brasil estar equipado com infraestrutura adequada, especialmente capacidade de processamento, é baixa. Talvez um caminho seja estabelecer acordos de colaboração com big techs, americanas e chinesas, oferecendo consumo eficiente de energia para instalação de data centers no Brasil com nossa matriz energética (85% de energia renovável); em troca, garantir acesso diferenciado para nossas organizações. O atrativo deste suposto acordo de colaboração para as grandes tecnologias é reduzir os custos de infraestrutura. A monetização de investimentos maciços em infraestruturas de IA por parte das grandes empresas de tecnologia ainda não se materializou em receitas; O relatório da Sequoia Capital prevê receitas agregadas de 600 mil milhões de dólares por ano para pagar a infraestrutura de IA, o que significa que, embora o potencial da IA seja enorme, os gigantes da tecnologia e as startups ainda precisam de inventar aplicações lucrativas e reduzir os custos da infraestrutura. No dia 4 de julho, a coluna consultou o especialista europeu Philipp Hacker, profundamente envolvido em processos regulatórios na Europa. Época Negócios: Esta semana, a autoridade de proteção de dados do Brasil ordenou que a Meta suspendesse temporariamente o uso de dados brasileiros para treinar modelos generativos de IA, alegando que isso vai contra o “interesse legítimo”. Por um lado, parece justo exigir mais transparência e cumprimento das regras/leis das big techs. Por outro lado, estas medidas podem inviabilizar modelos de negócio ou comprometer a capacidade de gerar soluções de IA amplamente adotadas. Como conciliar interesses conflitantes e minimizar as influências políticas nas decisões? Philipp Hacker: Você está certo em destacar a tensão entre a necessidade de transparência e conformidade regulatória e o impacto potencial nos modelos de negócios e na inovação da IA. Será difícil conciliar as práticas generativas de IA com o GDPR, em geral. Aqui estão algumas sugestões para reconciliar esses interesses conflitantes e, ao mesmo tempo, minimizar as influências políticas nas decisões: 1. Dados fortemente anonimizados: Uma abordagem é garantir que todos os dados usados para treinar modelos de IA sejam totalmente anonimizados. Isto significa remover qualquer informação pessoalmente identificável dos conjuntos de dados para proteger a privacidade dos indivíduos e, ao mesmo tempo, permitir que a IA aprenda com padrões amplos. Invista em tecnologias como “privacidade diferencial” (algoritmo de privacidade diferencial, injeta dados aleatórios em um conjunto de dados para proteger a privacidade individual), “aprendizado federado” (a aprendizagem federada é uma forma de treinar modelos de IA garantindo que seus dados permaneçam ocultos) e “ criptografia homomórfica” (criptografia homomórfica é a conversão de dados em texto cifrado que pode ser analisado e trabalhado como se ainda estivesse em sua forma original) pode permitir que as empresas utilizem os dados de uma forma que respeite a privacidade, ao mesmo tempo que o tempo permite o desenvolvimento de tecnologias avançadas. Modelos de IA. 2. Mecanismos de consentimento robustos: Empresas como a Meta poderiam implementar mecanismos de consentimento mais transparentes e robustos, onde os utilizadores sejam totalmente informados e optem ativamente por que os seus dados sejam utilizados para fins de formação em IA. Isto estaria em linha com os princípios das leis de proteção de dados, como o GDPR. 3. Diálogo Multilateral: As empresas devem envolver-se ativamente no diálogo com reguladores, decisores políticos e partes interessadas de diferentes regiões para garantir que as suas práticas cumprem as diversas expectativas legais e culturais. Isto pode ajudar a harmonizar as normas e reduzir o risco de decisões com motivação política. 4. Supervisão Independente: A criação de órgãos de supervisão verdadeiramente independentes para monitorar e auditar o desenvolvimento da IA; A utilização de dados pode proporcionar uma camada adicional de responsabilização e tranquilizar o público e os reguladores de que os padrões legais e éticos estão a ser cumpridos. A inteligência artificial é a tecnologia de uso geral do século XXI e, como tal, está a mudar a forma como a economia e a sociedade funcionam; A IA é estratégica para o futuro das organizações e dos países. Um dos desafios é enquadrar as grandes tecnologias nas regulamentações e leis atuais e futuras; atrair a instalação de data centers no Brasil com uso de energia renovável; estabelecer um acordo de colaboração entre big techs e autoridades brasileiras para viabilizar o desenvolvimento da IA; e identificar soluções inovadoras para os potenciais danos da IA. A criatividade para encontrar as melhores soluções, porém, precisa ter uma base sólida no conhecimento da tecnologia. Mais Lidos
fazer empréstimo no bolsa família online
como quitar empréstimo consignado
refin o que é
refinanciar emprestimo
empréstimo consignado funcionário público
aposentado emprestimo caixa
empréstimo para militar
empréstimo consignado pan
0