À medida que as empresas confiam mais em sistemas automatizados, a ética se tornou uma preocupação importante. Os algoritmos moldam cada vez mais decisões que foram tomadas anteriormente pelas pessoas, e esses sistemas têm um impacto nos empregos, crédito, assistência médica e resultados legais. Esse poder exige responsabilidade. Sem regras claras e padrões éticos, a automação pode reforçar a injustiça e causar danos.
Ignorar a ética afeta as pessoas reais de maneiras reais, não apenas a mudança de graus de confiança do público. Sistemas tendenciosos podem negar empréstimos, empregos ou saúde e automação podem aumentar a velocidade das decisões ruins se não houver corrimões de proteção. Quando os sistemas fazem a chamada errada, geralmente é difícil apelar ou até entender o porquê, e a falta de transparência transforma pequenos erros em problemas maiores.
Compreendendo o viés nos sistemas de IA
O viés na automação geralmente vem de dados. Se os dados históricos incluirem discriminação, os sistemas treinados podem repetir esses padrões. Por exemplo, uma ferramenta de IA usada para rastrear candidatos a emprego pode rejeitar candidatos com base em gênero, raça ou idade se seus dados de treinamento refletirem esses preconceitos anteriores. O viés também entra através do design, onde as opções sobre o que medir, quais resultados favorecer e como rotular dados podem criar resultados distorcidos.
Existem muitos tipos de viés. O viés de amostragem acontece quando um conjunto de dados não representa todos os grupos, enquanto o viés de rotulagem pode vir de contribuições humanas subjetivas. Mesmo opções técnicas como metas de otimização ou tipo de algoritmo podem distorcer os resultados.
Os problemas não são apenas teóricos. Amazon retirou o uso de uma ferramenta de recrutamento em 2018 depois de favorecer os candidatos do sexo masculino e alguns reconhecimento facial Verificou -se que os sistemas identificam mal as pessoas de cor a taxas mais altas que os caucasianos. Tais problemas danificam a confiança e levantam preocupações legais e sociais.
Outra preocupação real é o viés de proxy. Mesmo quando características protegidas como a raça não são usadas diretamente, outros recursos como código postal ou nível de educação podem atuar como substitutos, o que significa que o sistema ainda pode discriminar mesmo que a entrada pareça neutra, por exemplo, com base em áreas mais ricas ou mais pobres. O viés de proxy é difícil de detectar sem testes cuidadosos. O aumento dos incidentes de viés de IA é um sinal de que é necessária mais atenção no design do sistema.
Cumprindo os padrões que importam
As leis estão alcançando. A Lei da AI da UE, aprovada em 2024, classifica os sistemas de IA por risco. Sistemas de alto risco, como os usados na contratação ou na pontuação de crédito, devem atender aos requisitos rígidos, incluindo transparência, supervisão humana e verificações de viés. Nos EUA, não existe uma única lei de IA, mas os reguladores estão ativos. A Comissão de Oportunidades de Emprego Igual (EEOC) alerta os empregadores sobre os riscos de ferramentas de contratação orientadas pela IA, e a Federal Trade Commission (FTC) também sinalizou que sistemas tendenciosos podem violar as leis anti-discriminação.
A Casa Branca emitiu um plano para uma Declaração de Direitos da IA, oferecendo orientação sobre uso ético e seguro. Embora não seja uma lei, ela define expectativas, cobrindo cinco áreas principais: sistemas seguros, proteções de discriminação algorítmica, privacidade de dados, aviso e explicação e alternativas humanas.
As empresas também devem assistir as leis estaduais dos EUA. Califórnia se mudou para Regular a tomada de decisão algorítmicae Illinois exige que as empresas diga aos candidatos a emprego se a IA for usada em entrevistas em vídeo. Deixar de cumprir pode trazer multas e ações judiciais.
Os reguladores da cidade de Nova York agora exigem auditorias para sistemas de IA usados na contratação. As auditorias devem mostrar se o sistema fornece resultados justos em grupos de gênero e corrida, e os empregadores também devem notificar os candidatos quando a automação é usada.
A conformidade é mais do que apenas evitar penalidades – trata -se também de estabelecer confiança. As empresas que podem mostrar que seus sistemas são justas e responsáveis têm maior probabilidade de ganhar apoio de usuários e reguladores.
Como construir sistemas mais justos
A ética na automação não acontece por acaso. É preciso planejamento, ferramentas certas e atenção contínua. O viés e a justiça devem ser incorporados ao processo desde o início, não aparafusados mais tarde. Isso implica definir metas, escolher os dados certos e incluir as vozes certas na mesa.
Fazer isso bem significa seguir algumas estratégias importantes:
Avaliações de viés de condução
O primeiro passo para superar o viés é encontrá -lo. As avaliações de viés devem ser realizadas precocemente e, com frequência, do desenvolvimento à implantação, para garantir que os sistemas não produzam resultados injustos. As métricas podem incluir taxas de erro em grupos ou decisões que têm um impacto maior em um grupo do que outros.
As auditorias de viés devem ser realizadas por terceiros, quando possível. Revisões internas podem perder questões -chave ou não ter independência, e a transparência nos processos de auditoria objetiva cria confiança pública.
Implementando diversos conjuntos de dados
Diversos dados de treinamento ajudam a reduzir o viés, incluindo amostras de todos os grupos de usuários, especialmente aqueles frequentemente excluídos. Um assistente de voz treinado principalmente em vozes masculinas funcionará mal para as mulheres, e um modelo de pontuação de crédito que não possui dados sobre usuários de baixa renda podem julgá-las incorretas.
A diversidade de dados também ajuda os modelos a se adaptar ao uso do mundo real. Os usuários vêm de diferentes antecedentes e os sistemas devem refletir isso. Variedade geográfica, cultural e lingüística, todas importantes.
Diversos dados não são suficientes por si só-eles também devem ser precisos e bem marcados. Lixo, lixo ainda se aplica, para que as equipes precisem verificar se há erros e lacunas e corrigi -los.
Promovendo a inclusão no design
O design inclusivo envolve as pessoas afetadas. Os desenvolvedores devem consultar os usuários, especialmente aqueles em risco de danos (ou aqueles que podem, usando IA tendenciosa, causar danos), pois isso ajuda a descobrir pontos cegos. Isso pode significar envolver grupos de defesa, especialistas em direitos civis ou comunidades locais em revisões de produtos. Significa ouvir antes que os sistemas sejam lançados, não após as queixas rolarem.
O design inclusivo também significa equipes interdisciplinares. Trazer vozes de ética, lei e ciências sociais pode melhorar a tomada de decisões, pois essas equipes têm maior probabilidade de fazer perguntas diferentes e identificar riscos.
As equipes também devem ser diversas. Pessoas com diferentes experiências de vida identificam questões diferentes, e um sistema construído por um grupo homogêneo pode ignorar os riscos que outros capturariam.
O que as empresas estão fazendo certo
Algumas empresas e agências estão tomando medidas para abordar o viés da IA e melhorar a conformidade.
Entre 2005 e 2019, a administração fiscal e alfândega holandesa acusou erroneamente cerca de 26.000 famílias de reivindicando benefícios de cuidados infantis fraudulentamente. Um algoritmo usado no sistema de detecção de fraude segmentou desproporcionalmente famílias com nacionalidades duplas e baixa renda. As consequências levaram a protestos públicos e a renúncia do governo holandês em 2021.
O LinkedIn enfrentou escrutínio sobre o viés de gênero em seus algoritmos de recomendação de emprego. Pesquisa do MIT E outras fontes descobriram que os homens eram mais propensos a serem combinados com funções de liderança com salários mais altos, em parte devido a padrões comportamentais na maneira como os usuários se inscreveram em empregos. Em resposta, o LinkedIn implementou um sistema secundário de IA para garantir um pool mais representativo de candidatos.
Outro exemplo é o New York City Automatation Decision Tool (AEDT) Leique entrou em vigor em 1º de janeiro de 2023, com a execução a partir de 5 de julho de 2023. A lei exige que empregadores e agências de trabalho que usem ferramentas automatizadas para contratação ou promoção para conduzir uma auditoria de viés independente em um ano de uso, divulgue publicamente um resumo dos resultados e notificar os candidatos a mais 10 dias úteis, que se destacam.
Aetna, uma seguradora de saúde, lançou um Revisão interna de seus algoritmos de aprovação de reivindicações e descobriram que alguns modelos levaram a atrasos mais longos para pacientes com baixa renda. A empresa mudou a maneira como os dados foram ponderados e adicionaram mais supervisão para reduzir essa lacuna.
Os exemplos mostram que o viés da IA pode ser abordado, mas é necessário esforço, objetivos claros e forte responsabilidade.
Para onde vamos daqui
A automação está aqui para ficar, mas a confiança nos sistemas depende da justiça dos resultados e das regras claras. O viés nos sistemas de IA pode causar danos e risco legal, e a conformidade não é uma caixa para verificar – faz parte de fazer as coisas corretamente.
A automação ética começa com a consciência. É preciso dados fortes, testes regulares e design inclusivo. As leis podem ajudar, mas a mudança real também depende da cultura e liderança da empresa.
(Foto de Pixabay)
Veja também: Por que o Oriente Médio é um local quente para investimentos globais de tecnologia
Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira Ai & Big Data Expo Ocorrendo em Amsterdã, Califórnia e Londres. O evento abrangente é co-localizado com outros eventos principais, incluindo Conferência de Automação InteligenteAssim, BlockxAssim, Semana de Transformação Digitale Cyber Security & Cloud Expo.
Explore outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.