Alphabet alerta funcionários sobre uso de chatbots, incluindo o Bard, devido a preocupações de segurança
A Alphabet, controladora do Google, está emitindo alertas aos seus funcionários sobre o uso de chatbots, incluindo o próprio Bard, enquanto continua a comercializar o programa globalmente, informaram quatro fontes familiarizadas com o assunto à Reuters.
A empresa orientou os funcionários a não inserirem dados confidenciais nos chatbots de inteligência artificial, de acordo com as fontes, e a própria Alphabet confirmou essa orientação, citando uma política de longa data em relação à proteção de informações.
Leia também: Google Lens agora identifica condições de pele e oferece diagnósticos visuais
Os revisores humanos têm acesso às conversas dos chatbots, e pesquisadores descobriram que uma inteligência artificial semelhante pode reproduzir os dados absorvidos durante o treinamento, o que representa um risco de vazamento. A Alphabet também alertou seus engenheiros para evitar o uso direto dos códigos de computador gerados pelos chatbots, disseram algumas fontes.
Ao ser questionada sobre o assunto, a empresa afirmou que o Bard pode oferecer sugestões indesejadas de código, mas ainda assim auxilia os programadores. O Google também expressou sua intenção de ser transparente em relação às limitações de sua tecnologia.
Essas preocupações refletem o cuidado do Google em evitar danos aos negócios com seu software lançado como concorrente do ChatGPT. Bilhões de dólares em investimentos, publicidade e receitas não contabilizadas provenientes de novos programas de inteligência artificial estão em jogo na corrida entre a Alphabet e as responsáveis pelo ChatGPT, a OpenAI e a Microsoft.
A cautela do Google também reflete um padrão de segurança adotado por muitas empresas, que alertam seus funcionários sobre o uso de programas de chat disponíveis publicamente. Segundo as empresas, um número crescente de corporações em todo o mundo implementou proteções em chatbots de IA, incluindo Samsung, Amazon.com e Deutsche Bank, de acordo com informações fornecidas à Reuters.
Embora a Apple não tenha respondido aos pedidos de comentários, acredita-se que a empresa também tenha adotado essa abordagem. Uma pesquisa realizada pelo site de relacionamento Fishbowl com quase 12 mil entrevistados, incluindo grandes empresas dos Estados Unidos, revelou que cerca de 43% dos profissionais utilizavam o ChatGPT ou outras ferramentas de IA em janeiro, muitas vezes sem informar seus superiores.
Em fevereiro, o Google instruiu sua equipe de testes do Bard a não fornecer informações internas, segundo relatos do Insider. Atualmente, a empresa está lançando o programa em mais de 180 países e em 40 idiomas, como um trampolim para a criatividade, e seus alertas também se estendem às sugestões de código.
A Reuters informou que o Google teve conversas detalhadas com a Comissão de Proteção de Dados da Irlanda e está respondendo às perguntas dos reguladores, após uma reportagem do Politico na terça-feira afirmar que a empresa adiou o lançamento do Bard na União Europeia esta semana, aguardando mais informações sobre o impacto do chatbot na privacidade.
Uma atualização da política de privacidade do Google, datada de 1º de junho, também afirma: “Não inclua informações confidenciais ou sensíveis em suas conversas com o Bard”.
Algumas empresas desenvolveram softwares para lidar com essas preocupações. Por exemplo, a Cloudflare, empresa que protege sites contra ataques cibernéticos e oferece outros serviços em nuvem, está comercializando uma funcionalidade que permite às empresas marcar e restringir o fluxo externo de determinados dados. Tanto o Google quanto a Microsoft estão oferecendo ferramentas de conversação para clientes corporativos, com preços mais altos, mas que não absorvem dados de modelos públicos de inteligência artificial.
A configuração padrão no Bard e no ChatGPT é salvar o histórico das conversas dos usuários, que podem optar por excluí-lo. Yusuf Mehdi, diretor de marketing de consumo da Microsoft, afirmou que “faz sentido” as empresas não desejarem que seus funcionários usem chatbots públicos para fins de trabalho. Ele explicou como o chatbot gratuito Bing, da Microsoft, se compara ao seu software empresarial, destacando que as políticas são mais rigorosas neste último.
A Microsoft se recusou a comentar se há uma proibição geral para que os funcionários insiram informações confidenciais em programas públicos de inteligência artificial, incluindo os próprios da empresa. No entanto, um executivo afirmou à Reuters que ele pessoalmente restringiu o uso desses programas.