Google recomenda que seus funcionários tomem cuidado com IAs
A empresa vem defendendo uma política antiga de proteção de informações temendo vazamentos e prejuízos
Ferramentas de inteligência artificial generativas, como o ChatGPT, vêm causando uma verdadeira revolução no mercado tecnológico. No entanto, algumas empresas do ramo estão pedindo prudência. É o caso da Alphabet Inc, conglomerado de companhias vinculadas ao Google, que está alertando seus funcionários sobre o uso dessa tecnologia, incluindo o Bard, programa que a empresa comercializa.
A controladora do Google vem aconselhando seus colaboradores a não compartilharem informações e materiais confidenciais em chatbots de IA, a empresa estaria defendendo uma política antiga de proteção de informações. A Alphabet também está pedindo que seus engenheiros evitem usar códigos de computador gerados pelos chatbots, argumentando que até mesmo o Bard pode fazer algumas sugestões indesejáveis, embora considere que a ferramenta ajuda bastante os programadores.
Os cuidados mostram uma preocupação do Google com vazamentos de informações e danos aos negócios. E a empresa parece não estar sozinha. Outras corporações também vem alertando para o uso acrítico das inteligências artificiais disponíveis publicamente. Empresas como Samsung, Amazon e Deutsch Bank estão contratando proteções contra os malefícios de chatbots de IA. E companhias de tecnologia, como a Microsoft e a própria Google estão colocando em seus portfólios ofertas de inteligência artificial com protocolos de segurança mais robustos,voltados para empresas.
Apesar disso, o Google informou em fevereiro, antes do lançamento do Bard, que sua ferramenta tinha sido programada para não fornecer informações internas de seus usuários. O programa agora está sendo lançado em mais de 180 países em 40 idiomas diferentes e vem sendo alardeado como um trampolim para a criatividade que traz, entre outras coisas, sugestões de códigos para programas de computador.







