O ChatGPT, da OpenIA, se popularizou no final de 2022 com a promessa de facilitar a vida de muita gente, inclusive no desempenho das atividades profissionais. Mas o que poderia se tornar uma solução, na verdade, passou a ser um problema. Isso porque as empresas começaram a perceber os possíveis efeitos negativos da ferramenta, como o vazamento de informações confidenciais.
Grandes empresas como Amazon, Apple, Google e Samsung já anunciaram a proibição da utilização da tecnologia dentro do ambiente corporativo. É bom ressaltar que a imposição vale também para outras ferramentas de Inteligência Artificial (IA) nas redes internas e dispositivos das organizações. A decisão inclui preocupações com a proteção de dados e possíveis riscos associados ao seu uso.
“A proibição ocorre por diversos fatores, principalmente se essas empresas têm negócios voltados para área de inovação relacionados, por exemplo, no desenvolvimento de software. Algumas dessas IA estabelecem em seus termos de serviços que, a partir do momento que um novo código é inserido nelas, ele pode ser utilizado para retreinar a ferramenta”, explica o professor da unidade de computação e sistemas da Faesa, Otávio Lube dos Santos.
No Espírito Santo, algumas companhias já estão proibindo ou limitando o uso da ferramenta. O especialista em Lei Geral de Proteção de Dados (LGPD), Wendel Babilon, presta serviço em diversas empresas e já recomendou que algumas deixem de utilizar o recurso.
Ele comenta que, ao receber um relatório de LGPD de um condomínio de alto padrão, percebeu que algo poderia colocar em risco informações sigilosas de moradores, prestadores de serviço, entre outros dados. A pessoa responsável foi entregar o documento e, na avaliação final, o ChatGPT parabenizou a empresa. Isso acendeu um alerta para os possíveis riscos.
“A ferramenta vai gerando informações de acordo com o que a pessoa vai escrevendo e, muitas vezes, podem não estar corretas, sem contar o risco de plágio e outros estorvos. O uso poderia ter vazado informações confidenciais”, comenta.
Das grandes empresas presentes no Estado, a Vale informou, em nota, que orienta que seus empregados utilizem somente ferramentas homologadas na rotina de trabalho. A determinação está baseada em sua Política de Segurança da Informação.
“Em aplicações não homologadas, como é o caso da plataforma, a recomendação é de que os empregados interajam usando apenas informações públicas sobre a empresa”, ressalta a nota.
Segundo Otávio Lube dos Santos, da Faesa, a empresa pode estar perdendo vantagem competitiva, uma vez que estaria entregando informações sobre o negócio sem saber como esse conhecimento vai ser utilizado.
Ele ressalta ainda que o problema em si não é a tecnologia, pelo contrário. O professor lembra que as próprias bigtechs vêm construindo IA para serem usadas especificamente no contexto de suas atividades de trabalho e isso deve permanecer e ganhar força nos próximos anos.
“Uma coisa é usar a tecnologia para perguntar uma coisa do dia a dia e outra é utilizar isso no desenvolvimento de grandes projetos. No contexto empresarial, o uso indevido pode representar prejuízo de milhares de dólares, já que muitas dessas empresas trabalham com inovação”, salienta.
Com relação à privacidade e confidencialidade, sistemas como o ChatGPT podem processar e armazenar informações sensíveis durante as interações com os usuários, como observa a psicóloga e diretora de cultura, liderança e diversidade do Ibef-ES, Gisélia Freitas.
Ela esclarece ainda que isso pode incluir informações confidenciais da empresa, dados pessoais de clientes ou estratégias de negócios. Se esses dados forem mal gerenciados, poderia levar a violações de privacidade e vazamento de informações.
“A adoção de novas tecnologias sempre traz riscos potenciais também para a segurança cibernética. Sistemas como o ChatGPT podem ser vulneráveis a ataques de engenharia social, phishing ou outras ameaças que visam enganar os sistemas e obter acesso não autorizado a informações ou sistemas corporativos”, destaca a psicóloga.
Gisélia acrescenta que também é importante levantar o fato da responsabilidade legal, pois sistemas como o ChatGPT podem fornecer informações incorretas ou inadequadas, o que poderia resultar em problemas legais para a empresa.
Isso é particularmente relevante em setores regulamentados, onde informações precisas e conformidade com leis e regulamentos são vitais, como explica a psicóloga.
“É importante notar que nem todas as empresas proíbem o uso de sistemas como o ChatGPT, mas muitas consideram cuidadosamente os riscos potenciais e implementam medidas de segurança, treinamento e monitoramento para mitigar esses riscos", ressalta Gisélia.
O uso de ChatGPT e de outras ferramentas semelhantes dependem de uma série de cuidados para que a tecnologia não se torne um pesadelo. A advogada especialista em Direito do Trabalho e Proteção de Dados Patricia Pena da Motta Leal, da Motta Leal & Advogados Associados, dá algumas orientações.
Ao adotar novas tecnologias, as empresas devem:
A Lei Geral de Proteção de Dados (LGPD) estabelece que quando os dados são utilizados em procedimentos automatizados, como é o caso do ChatGPT, deve haver transparência do tratamento dessas informações, com o repasse de informações claras sempre que solicitado pelo usuário.
Entre os requisitos para tratamento de dados, importante observar:
Sim, a empresa pode estabelecer restrições quanto ao uso de determinadas tecnologias, como parte de suas políticas internas, pois faz parte do poder diretivo da empresa determinar limites e direcionamentos de uso.
Os cuidados a serem tomados incluem:
A utilização de novas tecnologias, como o ChatGPT, pode ser usada nos casos em que:
Lembrando que cada situação deve ser avaliada individualmente, levando em consideração o contexto específico da empresa e a natureza da tecnologia em questão, sempre com o cuidado para que a LGPD seja respeitada.
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta