Você precisa pensar duas vezes antes de carregar esse rascunho de venda para ChatGPT ou Bard e pedir à inteligência artificial deles para aprimorar seus pontos?
E há etapas que você deve seguir para parar
– ou pelo menos minimizar – a quantidade de dados comercialmente sensíveis que você libera para o domínio público por meio dessas novas IAs “generativas”?
A resposta para ambas as perguntas: Sim.
O especialista em IA Ben Reid diz que está “extremamente positivo” sobre a capacidade de Bard e ChatGPT de ajudá-lo com seu fluxo de trabalho diário – no caso dele, dando a ele um aumento de poder com a ciência de dados.
Mas, embora a equipe de segurança cibernética de sua organização possa ficar feliz com o upload da maioria dos tipos de dados para, digamos, AWS, Microsoft Azure ou Google Cloud, as novas plataformas de IA estão em um estágio muito menos maduro de seu ciclo de vida, com limites sobre a transparência ainda sendo estabelecidos , diz Reid – o diretor executivo fundador do AI Forum NZ tornou-se futurista com Memia e é o autor de Fast Forward Aotearoa.
“Quando se trata de alguns tipos de conteúdo, temos que ter cuidado, pois ainda é muito cedo para ambas as plataformas. Se você estiver lidando com dados sensíveis e confidenciais, então você [have to be] realmente claro sobre os termos e condições que essas ferramentas estão sendo fornecidas a você. Com o modelo de treinamento público, deve haver uma expectativa de que você quebrará a confidencialidade em algum grau.”
Jogar fora o bebê junto com a água do banho
Em junho, o RNZ revelou que o Ministério de Negócios, Inovação e Emprego (MBIE) proibiu os funcionários de usar tecnologia de inteligência artificial, como o ChatGPT, desde março, citando dados e riscos à privacidade. O mesmo aconteceu com Te Whatu Ora (Health NZ) – embora, ironicamente, o Departamento de Assuntos Internos, que orienta muitas políticas de uso de tecnologia de agências governamentais, não o tenha feito.
No exterior, todos os principais bancos dos Estados Unidos baniram o ChatGPT. A Samsung colocou o aplicativo na lista negra em maio, após três ocorrências de funcionários postando código-fonte confidencial na plataforma (um uso popular do ChatGPT – e no qual é muito bom, por todas as contas – é pedir à IA para escrever ou melhorar o código). A Apple baniu o ChatGPT e o Bard devido ao risco de funcionários revelarem segredos comerciais.
Anúncio
O professor sênior de direito da Universidade de Auckland e especialista em direito de IA, Nikki Chamberlain, disse ao RNZ que cautela era prudente.
“É uma nova tecnologia e ainda não sabemos as consequências disso”, disse ela.
“E só o tempo poderá dizer se as informações que você está colocando lá serão protegidas e privadas.”
Na Nova Zelândia, não há regulamentação ou legislação específica para IA, e os documentos internos do MBIE dizem que “não há regras ou diretrizes para todas as agências governamentais sobre o uso da equipe [of] Ferramentas de IA”, relatou RNZ.
“Estamos vendo organizações tentando controlar o uso indevido dessas ferramentas bloqueando o acesso a elas, mas é um pouco como ‘bater na toupeira’ com novas ferramentas de IA generativas sendo lançadas o tempo todo, por isso é importante fornecer orientação sobre como usá-los com segurança, em vez de pensar que não estão sendo usados”, disse Liz Knight, chefe de segurança cibernética da Theta, ao Arauto essa semana.
“A boa notícia é que, à medida que a IA está amadurecendo, também estão as opções para proteger seus dados. O ChatGPT agora permite que você desative o ChatGPT de usar seu histórico de bate-papo para o modelo de treinamento deles”, acrescentou Knight. (Veja como abaixo).
“Mesmo assim, é recomendável que você trate qualquer GPT como uma ferramenta pública e evite inserir dados confidenciais na ferramenta.
“A melhor abordagem é usar ferramentas de IA generativas como qualquer outro sistema ou aplicativo – de maneira legal, ética, segura e compatível com as leis e regulamentos relevantes, como a Lei de Privacidade, tomando cuidado para não inserir nenhuma informação de identificação pessoal, como como nomes de pessoas, endereços e detalhes de contato.”
Anúncio
Aviso do comissário de privacidade
E no meio do ano, o comissário de privacidade da Nova Zelândia, Michael Webster, emitiu uma nota sobre o que chamou de riscos potenciais associados a IAs generativas como o Bard do Google, o ChatGPT da OpenAI (apoiado por bilhões do investidor fundamental Microsoft – o primeiro apoiador Elon Musk depois de uma discussão com a administração – e ChatGPT quando usado com o motor de busca da Microsoft Bing).
As entranhas da nota de advertência de Webster – que está sendo continuamente atualizada aqui – é que o ChatGPT e o Bard armazenam seus prompts, que variam de perguntas simples a documentos completos que você carregou e solicitou, digamos, resumos de pontos. Eles fazem isso para que os AIs possam se treinar, aprimorando sua capacidade à medida que coletam mais e mais informações e reagem a consultas de acompanhamento para aprimorar suas respostas.
“Existe o risco de que as informações pessoais inseridas na IA generativa sejam retidas ou divulgadas pelo provedor da ferramenta de IA generativa e usadas para continuar treinando o modelo”, disse Webster.
Uma observação lateral: embora o aprendizado de máquina seja a principal preocupação (dado o grande volume de atividade), não são os algoritmos de software que analisam seu conteúdo. Leia as políticas de privacidade do Bard e do ChatGPT e você verá que ambos também têm revisores humanos. As informações são anonimizadas, então eles não podem ver quem fez uma determinada pergunta ou carregou um determinado documento, e eles trabalham de acordo com diretrizes rígidas. Ainda assim, se você inserir alguns dados financeiros no ChatGPT e solicitar um resumo rápido ou detectar tendências, esteja ciente de que um dos cerca de 900 funcionários da OpenAI em San Francisco pode observá-los.
Os colegas de Webster em todo o mundo emitiram avisos semelhantes. Na semana passada, a Comissão Federal de Comércio dos EUA abriu uma investigação sobre a IA do criador do ChatGPT e a maneira como ele trata os dados. Nos EUA, ações judiciais foram iniciadas contra o Google e o ChatGPT, alegando que eles copiaram material protegido por direitos autorais. Existem pelo menos 10 ações legais movidas por artistas e autores (alguns dos quais tiveram seus trabalhos inseridos em IAs por terceiros), mas as informações comerciais – na verdade, qualquer informação – entram no caldeirão à medida que as IAs constroem seus “grandes modelos de linguagem” capazes de resposta semelhante à humana.
Limitando o acesso – a uma moda
Não há modo “anônimo” para Bard, ChatGPT ou qualquer um de seus pares. Simplesmente, não há como eles evoluirem como IAs se todos puderem optar por não compartilhar suas perguntas, qualquer texto ou imagem que carreguem e suas respostas a tudo o que as inteligências artificiais gerarem.
Você pode minimize o que você compartilha, mas também deve estar alerta para o fato de que há várias camadas no processo.
Por exemplo, o Bard oferece todos os tipos de opções para excluir manualmente sua “atividade” – incluindo a última hora ou o último dia ou qualquer unidade de tempo. Ele também pode ser configurado para excluir automaticamente todas as suas atividades a cada três, 18 ou 36 meses (18 meses é o padrão).
Mas eu tinha uma dúvida incômoda sobre essa política, que foi confirmada quando perguntei a Bard: “Excluir sua atividade no Bard exclui o Informação você carregou para Bard?”
A IA respondeu:
“Não, excluir sua atividade no Bard não excluirá as informações que você carregou no Bard. Excluir sua atividade de bardo excluirá apenas os seguintes dados:
- Seu endereço IP
- Seus dados de localização
- As instruções e respostas que você deu a Bard
- A hora e data de suas interações com Bard
“As informações que você carregou na Bard, como seus documentos, imagens e código, não serão excluídas. Isso ocorre porque essas informações são usadas para treinar o Bard e melhorar seu desempenho.”
E uma atualização dos termos e condições da Bard, de seis dias atrás, destaca que mesmo quando você exclui sua atividade, nem todas as atividades são realmente excluídas, ou pelo menos não por 36 meses. Lê-se:
“As conversas do Bard que foram revisadas ou anotadas por revisores humanos não são excluídas quando você exclui sua atividade do Bard porque são mantidas separadamente e não estão conectadas à sua Conta do Google. Em vez disso, eles são retidos por até três anos.”
Você pode ajustar suas configurações de atividade no Bard ou, como ele faz parte da família Google, nas configurações gerais de privacidade do Google para controlar elementos como rastreamento (vá para myactivity.google.com/product/bard).
Wrangling ChatGPT
ChatGPT é mais binário. Clique no seu endereço de e-mail no canto inferior esquerdo da tela (quando estiver em um computador).
Em seguida, clique em Configurações e em Controles de dados para ver a opção de desativar o ChatGPT, salvando suas conversas e treinamentos (que são excluídos a cada 30 dias por padrão).
Assim como no Bard, excluir sua atividade não exclui nenhum arquivo que você carregou. E a OpenAI diz porque oferece uma API ChatGPT (interface de programação de aplicativos), que permite que vários terceiros integrem seus softwares à sua plataforma (e é muito fácil e barato se inscrever para usar a API), o manuseio de seus dados irá variar.
Observe que uma alteração nas configurações de privacidade do ChatGPT – ao contrário do Bard – só se aplica ao dispositivo que você está usando no momento. Atualize seus controles de dados ChatGPT em seu computador, e seu telefone e tablet ainda estarão em suas configurações antigas até que você os atualize individualmente também.
Por fim, embora o ChatGPT e o Bard usem sua conversa e qualquer texto ou código que você enviar para treinar suas inteligências artificiais e, possivelmente, como parte das respostas fornecidas a outros usuários, nenhum deles venderá seus dados a terceiros.
Chris Keall é um membro da equipe de negócios do Herald baseado em Auckland. Ele ingressou no Herald em 2018 e é editor de tecnologia e redator sênior de negócios.
Discussão sobre isso post