> >
Empresas do ES passam a proibir uso de ChatGPT para proteger dados

Empresas do ES passam a proibir uso de ChatGPT para proteger dados

Companhias começaram a perceber os possíveis efeitos negativos da ferramenta, como o vazamento de informações confidenciais de projetos e informações de clientes

Publicado em 7 de outubro de 2023 às 09:28

Ícone - Tempo de Leitura 6min de leitura
Uso reduzido do chatGPT nas empresas
Empresas começam a reduzir o uso de ferramentas de Inteligência Artificial, como o ChatGPT. (Freepik)

ChatGPT, da OpenIA, se popularizou no final de 2022 com a promessa de facilitar a vida de muita gente, inclusive no desempenho das atividades profissionais. Mas o que poderia se tornar uma solução, na verdade, passou a ser um problema. Isso porque as empresas começaram a perceber os possíveis efeitos negativos da ferramenta, como o vazamento de informações confidenciais.

Grandes empresas como Amazon, Apple, Google e Samsung já anunciaram a proibição da utilização da tecnologia dentro do ambiente corporativo. É bom ressaltar que a imposição vale também para outras ferramentas de Inteligência Artificial (IA) nas redes internas e dispositivos das organizações. A decisão inclui preocupações com a proteção de dados e possíveis riscos associados ao seu uso.

“A proibição ocorre por diversos fatores, principalmente se essas empresas têm negócios voltados para área de inovação relacionados, por exemplo, no desenvolvimento de software. Algumas dessas IA estabelecem em seus termos de serviços que, a partir do momento que um novo código é inserido nelas, ele pode ser utilizado para retreinar a ferramenta”, explica o professor da unidade de computação e sistemas da Faesa, Otávio Lube dos Santos.

No Espírito Santo, algumas companhias já estão proibindo ou limitando o uso da ferramenta. O especialista em Lei Geral de Proteção de Dados (LGPD), Wendel Babilon, presta serviço em diversas empresas e já recomendou que algumas deixem de utilizar o recurso.

Ele comenta que, ao receber um relatório de LGPD de um condomínio de alto padrão, percebeu que algo poderia colocar em risco informações sigilosas de moradores, prestadores de serviço, entre outros dados. A pessoa responsável foi entregar o documento e, na avaliação final, o ChatGPT parabenizou a empresa. Isso acendeu um alerta para os possíveis riscos.

“A ferramenta vai gerando informações de acordo com o que a pessoa vai escrevendo e, muitas vezes, podem não estar corretas, sem contar o risco de plágio e outros estorvos. O uso poderia ter vazado informações confidenciais”, comenta.

Aspas de citação

O problema é que as pessoas querem tudo pronto, o que pode gerar diversas falhas. Acabei proibindo o uso. É uma ferramenta muito boa, mas gera risco dentro da empresa, se não tiver controle

Wendel Babilon
Especialista em Lei Geral de Proteção de Dados (LGPD)
Aspas de citação

Das grandes empresas presentes no Estado, a Vale informou, em nota, que orienta que seus empregados utilizem somente ferramentas homologadas na rotina de trabalho. A determinação está baseada em sua Política de Segurança da Informação.

“Em aplicações não homologadas, como é o caso da plataforma, a recomendação é de que os empregados interajam usando apenas informações públicas sobre a empresa”, ressalta a nota.

Segundo Otávio Lube dos Santos, da Faesa, a empresa pode estar perdendo vantagem competitiva, uma vez que estaria entregando informações sobre o negócio sem saber como esse conhecimento vai ser utilizado.

Aspas de citação

Às vezes, pode causar espanto a limitação do uso da IA dentro das empresas. É importante lembrar que a companhia está preocupada com a sustentação no negócio e precisa ter cautela com coisas como a segurança e a privacidade dos seus usuários na internet

Otávio Lube dos Santos
Professor da unidade de computação e sistemas da Faesa
Aspas de citação
Empresas do ES passam a proibir uso de ChatGPT para proteger dados

Ele ressalta ainda que o problema em si não é a tecnologia, pelo contrário. O professor lembra que as próprias bigtechs vêm construindo IA para serem usadas especificamente no contexto de suas atividades de trabalho e isso deve permanecer e ganhar força nos próximos anos.

“Uma coisa é usar a tecnologia para perguntar uma coisa do dia a dia e outra é utilizar isso no desenvolvimento de grandes projetos. No contexto empresarial, o uso indevido pode representar prejuízo de milhares de dólares, já que muitas dessas empresas trabalham com inovação”, salienta.

Com relação à privacidade e confidencialidade, sistemas como o ChatGPT podem processar e armazenar informações sensíveis durante as interações com os usuários, como observa a psicóloga e diretora de cultura, liderança e diversidade do Ibef-ES, Gisélia Freitas.

Ela esclarece ainda que isso pode incluir informações confidenciais da empresa, dados pessoais de clientes ou estratégias de negócios. Se esses dados forem mal gerenciados, poderia levar a violações de privacidade e vazamento de informações.

“A adoção de novas tecnologias sempre traz riscos potenciais também para a segurança cibernética. Sistemas como o ChatGPT podem ser vulneráveis a ataques de engenharia social, phishing ou outras ameaças que visam enganar os sistemas e obter acesso não autorizado a informações ou sistemas corporativos”, destaca a psicóloga. 

Gisélia acrescenta que também é importante levantar o fato da responsabilidade legal, pois sistemas como o ChatGPT podem fornecer informações incorretas ou inadequadas, o que poderia resultar em problemas legais para a empresa.

Isso é particularmente relevante em setores regulamentados, onde informações precisas e conformidade com leis e regulamentos são vitais, como explica a psicóloga.

“É importante notar que nem todas as empresas proíbem o uso de sistemas como o ChatGPT, mas muitas consideram cuidadosamente os riscos potenciais e implementam medidas de segurança, treinamento e monitoramento para mitigar esses riscos", ressalta Gisélia.

Aspas de citação

Antes de adotar qualquer nova tecnologia, as empresas devem avaliar os benefícios e riscos associados e tomar decisões informadas para proteger seus interesses, dos colaboradores e os interesses de seus clientes

Gisélia Freitas
Psicóloga e diretora de cultura, liderança e diversidade do Ibef-ES
Aspas de citação

O que diz a Lei Geral de Proteção de Dados

O uso de ChatGPT e de outras ferramentas semelhantes dependem de uma série de cuidados para que a tecnologia não se torne um pesadelo. A advogada especialista em Direito do Trabalho e Proteção de Dados Patricia Pena da Motta Leal, da Motta Leal & Advogados Associados, dá algumas orientações.

Ao adotar novas tecnologias, as empresas devem:

  1. Avaliar a procedência e reputação do fornecedor da tecnologia;
  2. Compreender como a tecnologia funciona, incluindo possíveis vulnerabilidades e riscos associados;
  3.  Garantir que a tecnologia esteja em conformidade com Lei Geral de Proteção de Dados;
  4.  Implementar políticas internas de uso, estabelecendo diretrizes claras para os empregados;
  5.  Garantir a privacidade e segurança dos dados, protegendo-os contra acessos não autorizados, vazamentos e perdas;
  6.  Fornecer treinamentos regulares para os funcionários sobre a utilização segura e eficiente da tecnologia.

O que diz a LGPD sobre isso?

A Lei Geral de Proteção de Dados (LGPD) estabelece que quando os dados são utilizados em procedimentos automatizados, como é o caso do ChatGPT, deve haver transparência do tratamento dessas informações, com o repasse de informações claras sempre que solicitado pelo usuário.

Entre os requisitos para tratamento de dados, importante observar:

  1. Finalidade: o tratamento de dados deve ter propósitos legítimos, informados e específicos;
  2.  Transparência: os titulares dos dados devem ser informados sobre a coleta, processamento e armazenamento de suas informações;
  3.  Segurança: as empresas são obrigadas a adotar medidas para proteger os dados contra acessos não autorizados, perdas e vazamentos;
  4.  Responsabilização: as empresas podem ser responsabilizadas em caso de incidentes envolvendo dados pessoais.

A empresa pode restringir o uso? Quais os cuidados?

Sim, a empresa pode estabelecer restrições quanto ao uso de determinadas tecnologias, como parte de suas políticas internas, pois faz parte do poder diretivo da empresa determinar limites e direcionamentos de uso.

Os cuidados a serem tomados incluem:

  1. Comunicar claramente aos empregados sobre as restrições e os seus motivos;
  2. Estabelecer mecanismos para monitorar e garantir o cumprimento das restrições;
  3. Considerar as necessidades operacionais da empresa, equilibrando segurança e funcionalidade;
  4. Revisar e atualizar regularmente as políticas para refletir mudanças no ambiente tecnológico e legal.

Em que casos pode ser usada?

A utilização de novas tecnologias, como o ChatGPT, pode ser usada nos casos em que:

  1. Haja um claro benefício operacional ou estratégico para a empresa;
  2. A tecnologia esteja em conformidade com as leis e regulamentações aplicáveis;
  3. A empresa tenha implementado as medidas de segurança e privacidade necessárias;
  4. Os funcionários tenham sido adequadamente treinados sobre seu uso correto;
  5. Existam salvaguardas para evitar o tratamento inadequado de dados pessoais ou outras informações sensíveis.

Lembrando que cada situação deve ser avaliada individualmente, levando em consideração o contexto específico da empresa e a natureza da tecnologia em questão, sempre com o cuidado para que a LGPD seja respeitada.

Este vídeo pode te interessar

Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem

Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta

Tags:

A Gazeta integra o

The Trust Project
Saiba mais