Controladora do Google alerta equipe sobre uso de dados em chatbots

Alphabet alerta funcionários sobre uso de chatbots, incluindo o Bard, devido a preocupações de segurança
TAG Notícias

Alphabet alerta funcionários sobre uso de chatbots, incluindo o Bard, devido a preocupações de segurança

A Alphabet, controladora do Google, está emitindo alertas aos seus funcionários sobre o uso de chatbots, incluindo o próprio Bard, enquanto continua a comercializar o programa globalmente, informaram quatro fontes familiarizadas com o assunto à Reuters.

A empresa orientou os funcionários a não inserirem dados confidenciais nos chatbots de inteligência artificial, de acordo com as fontes, e a própria Alphabet confirmou essa orientação, citando uma política de longa data em relação à proteção de informações.

Leia também: Google Lens agora identifica condições de pele e oferece diagnósticos visuais

Os revisores humanos têm acesso às conversas dos chatbots, e pesquisadores descobriram que uma inteligência artificial semelhante pode reproduzir os dados absorvidos durante o treinamento, o que representa um risco de vazamento. A Alphabet também alertou seus engenheiros para evitar o uso direto dos códigos de computador gerados pelos chatbots, disseram algumas fontes.

Ao ser questionada sobre o assunto, a empresa afirmou que o Bard pode oferecer sugestões indesejadas de código, mas ainda assim auxilia os programadores. O Google também expressou sua intenção de ser transparente em relação às limitações de sua tecnologia.

Essas preocupações refletem o cuidado do Google em evitar danos aos negócios com seu software lançado como concorrente do ChatGPT. Bilhões de dólares em investimentos, publicidade e receitas não contabilizadas provenientes de novos programas de inteligência artificial estão em jogo na corrida entre a Alphabet e as responsáveis pelo ChatGPT, a OpenAI e a Microsoft.

A cautela do Google também reflete um padrão de segurança adotado por muitas empresas, que alertam seus funcionários sobre o uso de programas de chat disponíveis publicamente. Segundo as empresas, um número crescente de corporações em todo o mundo implementou proteções em chatbots de IA, incluindo Samsung, Amazon.com e Deutsche Bank, de acordo com informações fornecidas à Reuters.

Embora a Apple não tenha respondido aos pedidos de comentários, acredita-se que a empresa também tenha adotado essa abordagem. Uma pesquisa realizada pelo site de relacionamento Fishbowl com quase 12 mil entrevistados, incluindo grandes empresas dos Estados Unidos, revelou que cerca de 43% dos profissionais utilizavam o ChatGPT ou outras ferramentas de IA em janeiro, muitas vezes sem informar seus superiores.

Em fevereiro, o Google instruiu sua equipe de testes do Bard a não fornecer informações internas, segundo relatos do Insider. Atualmente, a empresa está lançando o programa em mais de 180 países e em 40 idiomas, como um trampolim para a criatividade, e seus alertas também se estendem às sugestões de código.

A Reuters informou que o Google teve conversas detalhadas com a Comissão de Proteção de Dados da Irlanda e está respondendo às perguntas dos reguladores, após uma reportagem do Politico na terça-feira afirmar que a empresa adiou o lançamento do Bard na União Europeia esta semana, aguardando mais informações sobre o impacto do chatbot na privacidade.

Uma atualização da política de privacidade do Google, datada de 1º de junho, também afirma: “Não inclua informações confidenciais ou sensíveis em suas conversas com o Bard”.

Algumas empresas desenvolveram softwares para lidar com essas preocupações. Por exemplo, a Cloudflare, empresa que protege sites contra ataques cibernéticos e oferece outros serviços em nuvem, está comercializando uma funcionalidade que permite às empresas marcar e restringir o fluxo externo de determinados dados. Tanto o Google quanto a Microsoft estão oferecendo ferramentas de conversação para clientes corporativos, com preços mais altos, mas que não absorvem dados de modelos públicos de inteligência artificial.

A configuração padrão no Bard e no ChatGPT é salvar o histórico das conversas dos usuários, que podem optar por excluí-lo. Yusuf Mehdi, diretor de marketing de consumo da Microsoft, afirmou que “faz sentido” as empresas não desejarem que seus funcionários usem chatbots públicos para fins de trabalho. Ele explicou como o chatbot gratuito Bing, da Microsoft, se compara ao seu software empresarial, destacando que as políticas são mais rigorosas neste último.

A Microsoft se recusou a comentar se há uma proibição geral para que os funcionários insiram informações confidenciais em programas públicos de inteligência artificial, incluindo os próprios da empresa. No entanto, um executivo afirmou à Reuters que ele pessoalmente restringiu o uso desses programas.

Sarah Oliveira
Sarah Oliveira

Uma amante das palavras em uma jornada incessante de descoberta. Originária de São Paulo, encontro nas nuances da linguagem minha paixão. Com formação em Comunicação, tenho o prazer de guiar você pelos intrincados caminhos das notícias, oferecendo uma perspectiva única sobre o que acontece no Brasil e no mundo.

Artigos: 2058