Cada vez mais empresas têm imposto limites ao uso de ferramentas de inteligência artificial generativa por parte dos funcionários, temendo riscos de privacidade e de segurança. Uma reportagem do jornal norte-americano "The Wall Street Journal", traduzida pelo Estadão, mostra que as restrições chegam a grandes empresas de tecnologia, como Apple, Spotify, Verizon e Samsung. No Brasil, além destas, grandes bancos como Bradesco, Caixa e Banco do Brasil também instituíram políticas de uso responsável dessa tecnologia.
Por trás dessas restrições está o receio de que dados sensíveis acabem expostos. No caso do ChatGPT, por exemplo, a política de privacidade da OpenAI (que tem a Microsoft, controladora do LinkedIn, como principal acionista) estabelece que, por padrão, todas as interações com o chatbot são armazenadas e usadas para treinar os modelos de linguagem da empresa.
Isto significa que se um desenvolvedor pede para a IA identificar o erro de um código, por exemplo, todas aquelas linhas de código serão armazenadas na "memória coletiva" do sistema para que ele possa aprender a dar respostas melhores no futuro. O problema é que, muitas vezes, esse código pode ser um dado sigiloso da empresa para a qual aquele desenvolvedor trabalha.
A OpenAI reserva ao usuário o direito de apagar qualquer informação fornecida à IA, e garante que esses dados serão também deletados de seus servidores. Além disso, é possível ativar uma configuração do ChatGPT que impede a coleta de informações para treinamento por padrão.
Não há registro de que conversas com o chatbot tenham sido vazadas, mas ataques cibercriminosos já conseguiram capturar dados de acesso de usuários, que acabaram vendidos na dark web. Além disso, em março, a OpenAI informou que um bug deixou expostos por nove horas dados como nome, sobrenome, email, endereço de cobrança e os últimos quatro dígitos do cartão de 1,2% dos assinantes do ChatGPT Plus.
Casos como estes espantam gestores e líderes de cibersegurança, mas não o bastante para impedir o acesso de profissionais a ferramentas de IA generativa. Em uma enquete feita pelo LinkedIn Notícias, 47% dos participantes disseram que suas empresas não têm política clara sobre o uso dessa tecnologia, e 33% disseram que o uso é totalmente liberado.
Como lidar com o problema
Especialistas no assunto questionados pelo LinkedIn Notícias concordam que prevenir é o melhor remédio, mas são contra a proibição do uso da IA no ambiente de trabalho. "Bloquear o caminho e o acesso não me parece a melhor solução quando olhamos para as possibilidades de expansão dos negócios", diz Aline Alencar, analista de privacidade do grupo de saúde Beneficência Portuguesa.
Ela sugere, por exemplo, a implementação de mecanismos de gestão de acesso, que possam determinar quais áreas e cargos específicos podem usar a tecnologia, e com quais finalidades. Além disso, ela defende a ampliação de campanhas de conscientização e a adoção de uma cultura que, na construção de novos produtos e serviços, sempre dê prioridade à privacidade e às melhores práticas de governança de dados.
[ Foto 01 ]
O LinkedIn Top Voice e especialista em cibersegurança Gustavo Marques ressalta que o vazamento de dados sigilosos não é o único risco relacionado à IA generativa. "O poder de criação das IAs é gigantesco, facilitando até mesmo a criação de interações realistas e convincentes para ataques de engenharia social, por exemplo."
Para Gustavo, a capacidade dessa tecnologia de automatizar a produção de conteúdo malicioso pode ter impacto não só nos negócios, mas em toda a sociedade, como na produção de desinformação em massa nas redes sociais. Mas a gestão de acesso e uma abordagem educativa sobre os riscos são os melhores caminhos a trilhar, segundo ele.
[ foto 02 ]
O impacto da IA na cibersegurança não se limita a colocar em risco dados sigilosos: também há possibilidades de um uso benéfico da tecnologia nesse campo. Tatiane Moreira, especialista em campanhas de conscientização de segurança digital, destaca que essa tecnologia também pode ser uma aliada na luta contra o cibercrime, empregada, por exemplo, na identificação de atividades suspeitas.
Para ela, os profissionais que não veem importância na segurança sempre vão buscar uma forma de burlar os limites ou proibições. Por isso, o importante é investir em conscientização e educação, para que as equipes entendam a importância de ter cuidado com o tipo de informação entregue a plataformas digitais externas – que é, afinal, uma das exigências da LGPD (Lei Geral de Proteção de Dados).
[ foto 03 ]
Quer saber mais sobre a importância da privacidade e da transparência no trabalho com inteligência artificial? Este é o tema de uma entrevista ao vivo que será realizada nesta segunda-feira, 24 de julho, às 14h00 (horário de Brasília), na página do LinkedIn Notícias, com Nick Vidal, especialista em tecnologia de código aberto, e Aline Deparis, CEO e cofundadora da startup Privacy Tools.
[foto 04 ]
Os dois são palestrantes da 15ª edição da Campus Party Brasil, maior festival de tecnologia, empreendedorismo, ciência e inovação do país, que será realizada em São Paulo (SP) entre os dias 25 e 30 de julho. É uma boa oportunidade para se conectar com outros profissionais da área de tecnologia e inovação, fazer networking e se atualizar das últimas tendências e debates do setor.
🚁 A primeira fábrica de “carros voadores” do Brasil vem aí. A Eve, startup de mobilidade da Embraer, anunciou que escolheu uma fábrica em Taubaté (SP) para a fabricação do seu primeiro eVTOL (veículo elétrico de decolagem vertical). O primeiro protótipo deve ficar pronto ainda este ano, para testes em 2024.
💣 A estreia de “Oppenheimer” é um alerta para a indústria de tecnologia. Quem diz isso é o diretor do filme, Christopher Nolan, que comparou a história do cientista criador da bomba atômica com as empresas desenvolvendo inteligência artificial – e que, segundo ele, podem não saber o tamanho do impacto dessa inovação.
🌞 Energia solar responde por quase 15% da matriz elétrica brasileira. É o que diz um novo levantamento da Absolar (Associação Brasileira de Energia Solar Fotovoltaica). Nos últimos 11 anos, essa tecnologia já movimentou R$ 155,2 bilhões em investimentos e evitou a emissão de 40,6 milhões de toneladas de CO2, um dos gases do efeito estufa que provocam as mudanças climáticas.
🎬 A greve dos atores e roteiristas de Hollywood também tem a ver com inteligência artificial. De braços cruzados há pouco mais de uma semana, o sindicato de atores dos EUA exige, entre outras demandas, maior controle sobre imagens geradas por inteligência artificial em séries e filmes. Eles questionam o uso da tecnologia para "substituir" artistas em produções futuras.
Dá para construir carreira no mercado de games do Brasil? Na última edição do Boletim Tech, mostramos como o aumento de estúdios nacionais tem feito do País um “exportador” de jogos digitais para o mundo, ainda que desafios como escassez de recursos, talentos e falta de diversidade persistam. Confira o que a comunidade tem discutido sobre isso.
Os profissionais destacados nesta edição foram Claudio Prandoni, Priscila Andreoni Ribeiro, Francisco Narto, Fernanda Guarda Ribeiro, Alysson Mainieri, Cris Bottini e Michel Alves Almeida Leite.
Quer aparecer aqui? Faça um comentário ou compartilhe esta edição com a sua rede, destacando o assunto que mais chamou a sua atenção.
➕ Inscreva-se para não perder as próximas edições do Boletim Tech!
Fonte: Este é o Boletim Tech, a newsletter do LinkedIn Notícias que quinzenalmente traz a você reportagens originais, conversas e ideias da comunidade de tecnologia no LinkedIn.
Fonte: Linkedin
0 Comentários
Comente aqui