Resumo
- A Coalizão para IA Segura visa abordar os riscos de segurança da IA com uma “estrutura de defesa” e um conjunto de regras para um desenvolvimento seguro.
- A coalizão, que inclui grandes players como Google e OpenAI, se concentra na segurança da cadeia de suprimentos de software e em estratégias de mitigação.
- Embora os esforços da CoSAI sejam louváveis, a sobreposição com organizações existentes e possíveis preocupações com preconceitos podem afetar seu sucesso.
Os últimos dois anos de avanço tecnológico foram todos ofuscados pela IA se tornando popular. O ChatGPT da OpenAI foi claramente o catalisador da corrida armamentista da IA, com gigantes como Google, Microsoft, Apple, Meta, Samsung e muitos outros forçados a correr atrás do prejuízo.
O rápido desenvolvimento da IA é motivo de preocupação. No ano passado, várias figuras públicas e pesquisadores de IA escreveram uma carta aberta aos laboratórios de IA globalmente para pausar o desenvolvimento de sistemas de IA em larga escala, citando “riscos profundos para a sociedade e a humanidade”. Isso realmente não levou a lugar nenhum.
Reconhecendo a necessidade crítica de medidas robustas em torno da IA e seu desenvolvimento, o Google introduziu o Secure AI Framework ou SAIF no ano passado.
Relacionado
A IA é um negócio arriscado, mas o Google tem uma nova estrutura para manter as coisas sob controle
Mergulhar de cabeça em uma piscina de complicações de segurança pode ser prejudicial
Com base nisso, a gigante da tecnologia agora está introduzindo uma nova coalizão com todos os figurões a tiracolo. No Aspen Security Forum hoje, quinta-feira, 18 de julho, o Google tornou oficial sua Coalition for Secure AI (CoSAI), afirmando que tem sido firme em reunir a equipe ao longo do último ano em um esforço para “avançar medidas de segurança abrangentes para lidar com os riscos únicos que vêm com a IA”, tanto de curto prazo (aqueles que surgem em tempo real) quanto de longo prazo (aqueles que estão surgindo).
A lista de membros fundadores da CoSAI inclui Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz. O Google detalhou a coalizão e seus planos em uma postagem de blog, e também há um site dedicado à CoSAI.
Fonte: CoSAI
Planos iniciais da CoSAI
Em sua postagem no blog, o Google disse muitas coisas nada jargão técnico, como o CoSAI com foco em “Segurança da Cadeia de Suprimentos de Software para sistemas de IA”, que essencialmente garantirá que o código de IA seja construído usando software seguro e confiável, rastreará como o software de IA é construído e identificará problemas desde o início.
A coalizão também visa criar salvaguardas ou “estrutura de defesa” com ferramentas para identificar e combater ameaças de segurança de IA conforme elas surgem. “Este fluxo de trabalho desenvolverá uma estrutura de defesa para ajudar os defensores a identificar investimentos e técnicas de mitigação para lidar com o impacto de segurança do uso de IA. A estrutura escalará estratégias de mitigação com o surgimento de avanços ofensivos de segurança cibernética em modelos de IA”, diz a postagem do blog.
Por fim, o CoSAI pretende criar um manual de regras que defina como desenvolver IA e garantir seu uso seguro, com listas de verificação e scorecards para “orientar os profissionais em avaliações de prontidão”.
Fonte: CoSAI
Os esforços da CoSAI parecem estar focados principalmente no aspecto de segurança da IA. Embora sua iniciativa seja louvável e a necessidade do momento, ela pode ser potencialmente redundante. Organizações formadas anteriormente, como o Frontier Model Forum e a Partnership on AI, já têm papéis que se sobrepõem aos planos da CoSAI.
Além disso, a CoSAI tem todos os grandes jogadores, o que pode ser uma faca de dois gumes. Uma coalizão de todos os figurões ajuda um pouco a causa, considerando que não haveria falta de recursos necessários para agir de acordo com seus planos. No entanto, também pode levantar questões sobre preconceito com a CoSAI favorecendo seus membros e protegendo seus próprios interesses de IA. A coalizão pode minimizar questões relacionadas a preconceitos sendo transparente sobre suas decisões, embora tenhamos que esperar para ver como as coisas acontecem.