Click here and read this news in English.
A Samsung proibiu o uso de ferramentas generativas de Inteligência Artificial, como o ChatGPT, por seus colaboradores. A justificativa é que usar IA em suas redes internas e dispositivos de propriedade representa um risco à segurança, segundo a Bloomberg News.
A regra foi comunicada à equipe e descreve como uma restrição temporária enquanto a Samsung trabalha para “criar um ambiente seguro” para usar as ferramentas generativas de IA. “Estamos restringindo temporariamente o uso de IA generativa”. A proibição ocorre depois que a Samsung descobriu que alguns de seus funcionários “vazaram o código-fonte interno ao carregá-lo no ChatGPT” de acordo com o veículo.
“A sede está revisando as medidas de segurança para criar um ambiente seguro para usar com segurança a IA generativa para aumentar a produtividade e a eficiência dos funcionários”, diz o comunicado, No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente o uso de IA generativa”. Além de restringir o uso de IA generativa em computadores, telefones e tablets da empresa, a Samsung também está pedindo aos funcionários que não façam upload de informações comerciais confidenciais por meio de suas máquinas pessoais.
O comunicado informa que funcionários que desrespeitarem a ordem podem até mesmo ser demitidos.
“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”, ressalta a companhia.
ChatGPT é a maior preocupação
O ChatGPT é o que preocupa mais a empresa. Os riscos de pril/acidade envolvidos no uso do chatbot variam de acordo com a forma como o usuário acessa o serviço. Se uma empresa é a API do ChatGPT, as conversas com o chatbot não são visíveis para a equipe de suporte da OpenAl e não são usadas para treinar os modelos da empresa. No entanto, isso não se aplica ao texto inserido na interface geral da web usando suas configurações padrão.
A OpenAl aconselha os usuários a não “compartilhar informações confidenciais em suas conversas” e observa que todas as conversas também podem ser usadas para treinar versões futuras do ChatGPT. A empresa lançou recentemente um recurso semelhante ao “modo anônimo” de um navegador que não salva históricos de bate-papo e os impede de serem usados para treinamento.
Fonte: Startupi