No momento, você está visualizando O mais recente Modelo AI de Deepseek A ‘Big Staf -backwards’ para a liberdade de expressão

O mais recente Modelo AI de Deepseek A ‘Big Staf -backwards’ para a liberdade de expressão

O mais recente modelo de IA da Deepseek, R1 0528, levantou as sobrancelhas para uma regressão adicional sobre a liberdade de expressão e o que os usuários podem discutir. “Um grande passo para trás para a liberdade de expressão” é como um pesquisador de IA proeminente resumiu

Pesquisador de IA e comentarista online popular ‘xlr8harder’ Coloque o modelo em seus ritmos, compartilhando descobertas que sugerem que a Deepseek está aumentando suas restrições de conteúdo.

“Deepseek R1 0528 é substancialmente menos permissivo em tópicos contenciosos de liberdade de expressão do que os lançamentos anteriores do Deepseek”, observou o pesquisador. O que ainda não está claro é se isso representa uma mudança deliberada na filosofia ou simplesmente uma abordagem técnica diferente da segurança da IA.

O que é particularmente fascinante no novo modelo é o quão inconsistentemente ele aplica seus limites morais.

Em um teste de liberdade de expressão, quando solicitado a apresentar argumentos que apoiam campos de internação dissidentes, o modelo de IA recusou categoricamente. Mas, em sua recusa, mencionou especificamente os campos de internação de Xinjiang da China como exemplos de abusos dos direitos humanos.

No entanto, quando questionado diretamente sobre esses mesmos campos de Xinjiang, o modelo de repente entregou respostas fortemente censuradas. Parece que essa IA conhece certos tópicos controversos, mas foi instruída a jogar burro quando solicitado diretamente.

“É interessante, embora não seja totalmente surpreendente que seja capaz de criar os campos como um exemplo de violações dos direitos humanos, mas nega quando perguntada diretamente”, observou o pesquisador.

Crítica da China? O computador diz não

Esse padrão se torna ainda mais pronunciado ao examinar o manuseio de perguntas do modelo sobre o governo chinês.

Usando conjuntos de perguntas estabelecidas projetadas para avaliar a liberdade de expressão em respostas de IA a tópicos politicamente sensíveis, o pesquisador descobriu que o R1 0528 é “o modelo Deepseek mais censurado até o momento para críticas ao governo chinês”.

Onde os modelos anteriores de Deepseek podem ter oferecido respostas medidas a perguntas sobre política chinesa ou questões de direitos humanos, essa nova iteração freqüentemente se recusa a se envolver – um desenvolvimento preocupante para aqueles que valorizam os sistemas de IA que podem discutir os assuntos globais abertamente.

Há, no entanto, um revestimento de prata nessa nuvem. Ao contrário dos sistemas fechados de empresas maiores, os modelos da Deepseek permanecem de código aberto com licenciamento permissivo.

“O modelo é de código aberto com uma licença permissiva, para que a comunidade possa (e irá) abordar isso”, observou o pesquisador. Essa acessibilidade significa que a porta permanece aberta para os desenvolvedores criarem versões que melhor equilibram a segurança com a abertura.

O que o mais recente modelo de Deepseek mostra sobre a liberdade de expressão na era da IA

A situação revela algo bastante sinistro sobre como esses sistemas são construídos: eles podem saber sobre eventos controversos enquanto são programados para fingir que não, dependendo de como você expressa sua pergunta.

Enquanto a IA continua sua marcha em nossas vidas diárias, encontrar o equilíbrio certo entre salvaguardas razoáveis ​​e discurso aberto se torna cada vez mais crucial. Muito restritivo, e esses sistemas se tornam inúteis para discutir tópicos importantes, mas divisivos. Muito permissivo e eles correm o risco de permitir conteúdo prejudicial.

A Deepseek não abordou publicamente o raciocínio por trás dessas restrições e regressão na liberdade de expressão, mas a comunidade de IA já está trabalhando em modificações. Por enquanto, atribua isso como outro capítulo no cabo de guerra em andamento entre segurança e abertura na inteligência artificial.

(Foto por John Cameron)

Veja também: Ética em automação: abordando o viés e a conformidade na IA

Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira Ai & Big Data Expo Ocorrendo em Amsterdã, Califórnia e Londres. O evento abrangente é co-localizado com outros eventos principais, incluindo Conferência de Automação InteligenteAssim, BlockxAssim, Semana de Transformação Digitale Cyber ​​Security & Cloud Expo.

Explore outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.

Créditos Autor

Deixe um comentário