Bias, drift, and knowledge cutoff

Uma compreensão completa dos conceitos de IA responsável – como o preconceito, o desvio e o corte de conhecimento – pode ajudá-lo a utilizar a IA de forma mais ética e com maior responsabilidade. Nesta leitura, aprenderá a utilizar as ferramentas de IA de forma responsável e a compreender as implicações de resultados injustos ou imprecisos.

Harms and biases

Envolver-se com a IA de forma responsável requer conhecimento dos seus preconceitos inerentes. Os Data biases são circunstâncias em que erros ou enviesamentos sistémicos conduzem a informações injustas ou imprecisas, resultando em resultados enviesados. A produção tendenciosa pode causar muitos tipos de danos às pessoas e à sociedade, incluindo:

  • Allocative harm:: irregularidades que ocorrem quando a utilização ou o comportamento de um sistema de IA retém oportunidades, recursos ou informações em domínios que afetam o bem-estar de uma pessoa

Exemplo: se um gestor de propriedades de um complexo de apartamentos utilizasse uma ferramenta de IA que realizasse verificações de antecedentes para analisar candidaturas de potenciais inquilinos, a ferramenta de IA poderia identificar incorretamente um requerente e considerá-lo um risco devido a uma baixa pontuação de crédito. Podem ter o apartamento negado e perder a taxa de inscrição.

  • Quality-of-service harm: uma circunstância em que as ferramentas de IA não funcionam tão bem para determinados grupos de pessoas com base na sua identidade

Exemplo: Quando a tecnologia de reconhecimento de fala foi desenvolvida pela primeira vez, os dados de treino não tinham muitos exemplos de padrões de fala exibidos por pessoas com deficiência, pelo que os dispositivos tinham muitas vezes dificuldade em analisar este tipo de fala.

  • Representational harm: o reforço da subordinação dos grupos sociais por uma ferramenta de IA com base nas suas identidades

Exemplo: Quando a tecnologia de tradução foi desenvolvida pela primeira vez, certos resultados distorciam incorretamente o masculino ou o feminino. Por exemplo, ao gerar uma tradução para palavras como “enfermeira” e “linda”, a tradução seria feminina. Quando palavras como “médico” e “forte” eram utilizadas como entradas, a tradução distorcia o masculino.

  • Social system harm: efeitos sociais de nível macro que amplificam as disparidades existentes de classe, poder ou privilégios, ou causam danos físicos, como resultado do desenvolvimento ou utilização de ferramentas de IA

Exemplo: deepfakes indesejados, que são fotos ou vídeos falsos gerados por IA de pessoas reais a dizer ou a fazer coisas que não disseram ou fizeram, podem ser um exemplo de danos para o sistema social.

  • Interpersonal harm: O uso da tecnologia para criar uma desvantagem para certas pessoas, afetando negativamente as suas relações com os outros ou causando uma perda do seu sentido de identidade e de agência.

Exemplo: se alguém conseguisse assumir o controlo de um dispositivo doméstico no seu apartamento anterior para pregar uma partida indesejada ao seu ex-colega de quarto, estas ações poderiam resultar na perda do sentido de identidade e de agência por parte da pessoa afetada pela partida.

Drift versus knowledge cutoff

Outro fenómeno que pode causar resultados injustos ou imprecisos é o desvio. O drift é o declínio na precisão das previsões de um modelo de IA devido a alterações ao longo do tempo que não são refletidas nos dados de treino. Por exemplo, um designer de moda pode querer acompanhar as tendências de gastos antes de criar uma nova coleção. Para começar a monitorizar, utilizam um modelo construído em 2015 que foi treinado nas tendências da moda e nos hábitos de consumo de 2015. No entanto, o modelo já não é preciso porque os hábitos sociais e as tendências da moda mudam ao longo do tempo. As preferências dos consumidores em 2015 são diferentes das tendências atuais. Por outras palavras, as previsões do modelo passaram de precisas no momento do treino para menos precisas nos dias de hoje.

Da mesma forma, um knowledge cutoff é o conceito de que um modelo é treinado num momento específico, pelo que não tem qualquer conhecimento de eventos ou informações após essa data. Por exemplo, se perguntar a uma ferramenta de IA generativa que foi treinada em 2022 quanto custa o smartphone mais recente, o resultado do modelo não incluirá a tecnologia mais recente de hoje – apenas aprenderá sobre os smartphones que existiam em 2022. Portanto, se um modelo for os dados não estão atualizados, a saída também não estará.

Felizmente, os knowledge cutoff não afetam todos os dados de um modelo. Um modelo de IA terá provavelmente muitos dados relevantes sobre eventos históricos, pontos de referência famosos e literatura aclamada, por exemplo. Mas ao utilizar a IA, considere se as pesquisas mais recentes ou os acontecimentos atuais podem alterar a precisão dos seus resultados.

Para explorar os preconceitos, os dados, os desvios e os limites do conhecimento, consulte o exercício
O que aprenderam os modelos de linguagem? do Google PAIR Exploráveis. Aí pode interagir com o BERT, um dos primeiros grandes modelos de linguagem (LLMs), e explorar como as correlações nos dados podem levar a distorções problemáticas nos resultados. Pode também conferir outros PAIR AI Exploráveis para saber mais sobre a IA responsável.

This blog post is based on information and concepts derived from the Coursera module titled “Google AI Essentials.” The original content can be found here:
https://www.coursera.org/learn/google-ai-essentials


Comments

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *