“Nike lança nova coleção de tênis de corrida para homens”

Se estiver usando uma conta pessoal da Adobe, é fácil sair da análise de conteúdo. Acesse a página de privacidade da Adobe, role até a seção Análise de conteúdo para melhoria do produto e clique para desligar. Se você tiver uma conta empresarial ou escolar, você está automaticamente excluído.

Serviços de IA da Amazon Web Services, como Amazon Rekognition ou Amazon CodeWhisperer, podem usar dados do cliente para melhorar as ferramentas da empresa, mas é possível sair do treinamento de IA. Essa costumava ser um dos processos mais complicados da lista, mas foi simplificado nos últimos meses. Uma página de suporte da Amazon detalha o processo completo para sair da organização.

O Figma, um software de design popular, pode usar seus dados para treinamento de modelo. Se sua conta é licenciada por meio de um plano de Organização ou Empresa, você está automaticamente excluído. Por outro lado, contas Iniciantes e Profissionais são automaticamente incluídas. Essa configuração pode ser alterada no nível da equipe acessando as configurações da guia IA e desligando o treinamento de conteúdo.

Para usuários do chatbot Gemini do Google, as conversas podem às vezes ser selecionadas para revisão humana para melhorar o modelo de IA. Sair é simples. Abra o Gemini no seu navegador, clique em Atividade e selecione o menu suspenso Desativar. Aqui você pode simplesmente desligar a Atividade de Aplicativos Gemini, ou pode sair e excluir seus dados de conversa. Embora isso signifique na maioria dos casos que futuros chats não serão vistos para revisão humana, os dados já selecionados não são apagados por esse processo.

O Grammarly atualizou suas políticas, então as contas pessoais podem optar por não participar do treinamento de IA. Faça isso acessando Conta, depois Configurações, e desativando o interruptor de Melhoria de Produto e Treinamento. Se sua conta for licenciada por uma empresa ou instituição de ensino, você será automaticamente excluído.

Kate O’Flaherty escreveu um ótimo artigo para WIRED sobre o Grok AI e como proteger sua privacidade no X, a plataforma onde o chatbot opera. É mais uma situação em que milhões de usuários de um site acordaram um dia e foram automaticamente incluídos no treinamento de IA com aviso mínimo. Se você ainda tiver uma conta no X, é possível optar por não usar seus dados para treinar o Grok, acessando a seção Configurações e privacidade, depois Privacidade e segurança. Abra a guia Grok e desmarque a opção de compartilhamento de dados.

O HubSpot, uma plataforma de software de marketing e vendas popular, automaticamente usa os dados dos clientes para melhorar seu modelo de aprendizado de máquina. Infelizmente, não há um botão para pressionar para desativar o uso de dados para treinamento de IA. Você precisa enviar um e-mail para privacy@hubspot.com solicitando que os dados associados à sua conta sejam excluídos.

Os usuários do LinkedIn, o site de networking profissional, foram pegos de surpresa em setembro ao descobrir que seus dados estavam sendo potencialmente usados para treinar modelos de IA. Você pode optar por não permitir que novas postagens do LinkedIn sejam usadas para treinamento de IA visitando seu perfil, abrindo as Configurações. Toque em Privacidade de Dados e desmarque o controle deslizante rotulado Usar meus dados para treinar modelos de IA de criação de conteúdo.

As pessoas revelam todo tipo de informação pessoal ao usar um chatbot. A OpenAI fornece algumas opções sobre o que acontece com o que você diz ao ChatGPT – incluindo permitir que seus futuros modelos de IA não sejam treinados com o conteúdo. A OpenAI afirma que os usuários têm várias maneiras fáceis de controlar seus dados, incluindo ferramentas de autoatendimento para acessar, exportar e excluir informações pessoais através do ChatGPT. Isso inclui opções facilmente acessíveis para optar por não usar seu conteúdo para treinar modelos.