A rápida evolução de modelos de linguagem baseados em inteligência artificial (IA) já faz sentir sua influência em diversas atividades humanas. A capacidade de desenvolver novos vírus e ameaças virtuais periga aumentar exponencialmente e a publicidade virtual é um grande vetor potencial dessas ameaças.
Os anúncios falsos usados em golpes de phishing e adware tendem a ficar cada vez mais persuasivos. Com geração de imagem hiper-realista e automatizada por IA, até mesmo influenciadores falsos poderão ser sintetizados, persuadindo vítimas a acessar caminhos virtuais perigosos.
As empresas de tecnologia e grandes nomes das variadas indústrias terão influência significativa na maneira como os modelos de IA serão regulados. Até o momento, além de discussões públicas no âmbito corporativo ou acadêmico, também começam a aparecer os esforços de autorregulação.
Na indústria da publicidade, a gigante publicitária Ogilvy lançou recentemente o AI Accountability Act (Ato de Responsabilização de IA, em tradução livre do inglês).
Essa iniciativa conclama agências de relações públicas e de publicidade e as plataformas de redes sociais a revelar quando há presença de conteúdo gerado por IA em marketing de influenciadores. A autenticidade é fundamental nesse ramo do marketing, tanto para marcas quanto para consumidores.
A Ogilvy estima o mercado de IA em marketing de influenciadores em 4,6 bilhões de dólares, com tendência a crescer, forçando os atores do ramo a coexistir com a nova realidade de maneira minimamente sustentável.
Consumidores em xeque
No Reino Unido, uma pesquisa da organização Census Wide revela um cenário de obstáculos na relação dos consumidores com a publicidade virtual.
De acordo com ela, um em cada três consumidores ingleses creem que mais da metade dos anúncios feitos em redes sociais são gerados por inteligência artificial. Cerca de 70% dos entrevistados não sabem que podem ser infectados clicando na imagem online, ainda que seja o logotipo de uma marca de confiança.
O que profissionais, pequenas e médias empresas podem fazer hoje?
Não se sabe ainda como os modelos de inteligência artificial se desenvolverão e nem os próximos passos de sua regulação no Brasil, nos Estados Unidos ou no mundo. Mas a necessidade de adaptar-se ao uso dessa tecnologia é uma realidade incontornável.
Para empresas, já há preocupações de como lidar bem com a IA. A primeira delas é resguardar a privacidade e a cibersegurança – para o que o uso de uma VPN é conveniente.
Baseando-se no uso do ChatGPT, é possível entender bem para que serve VPN em contato com modelos de IA. Em primeiro lugar, o provedor de serviços de internet e qualquer outro agente online com acesso às consultas DNS de uma pessoa consegue ver que ela está acessando o ChatGPT. Uma VPN evita tais intrusões.
Além disso, essa IA interativa da OpenAI pode acessar o endereço IP de quem a está usando. Embora o IP seja um código individual usado desde os primórdios da internet para comunicação entre máquinas, ele também revela o endereço de acesso.
Uma VPN estabelece uma conexão segura entre um computador pessoal ou corporativo e um servidor privado. A localização desse servidor pode ser escolhida, o que permite alterar a localização virtual dos usuários.
Modo de operar seguro
Manter a privacidade da localização é especialmente útil com o atual contexto de uso do ChatGPT em empresas. O estudo “Revealing the True genAI Data Exposure Risk” indicou que, num universo de 10 mil empregados entrevistados, pelo menos 15% deles usa o ChatGPT profissionalmente.
Essa porcentagem de usuários crescerá rapidamente. Atualmente, o relatório já registra que dados sensíveis das empresas são inseridos na ferramenta, sendo portanto utilizadas para o treinamento de máquinas pela sua empresa responsável, OpenAI.
Por fim, também é preciso considerar a quantidade de problemas relacionados aos textos e imagens gerados por modelos de IA. Apesar da capacidade de gerar material por vezes indistinguível de trabalho humano, é preciso supervisionar seu uso, já que a alucinação de modelos de IA é um risco sério.
Como o vídeo abaixo esclarece brevemente, alucinações são ocasiões em que os modelos entregam respostas diferentes daquelas esperadas. Esse tipo de limitação é real, e pode trazer danos de graus variados e imprevisíveis para organizações e seus clientes.
Por William Mendes. Mercadólogo, consultor de marketing no LogosBR.
Ainda ninguém comentou. Seja o primeiro!