No momento, você está visualizando Ex-reivindicação de reivindicação de reivindicação de ganância traindo a segurança da IA

Ex-reivindicação de reivindicação de reivindicação de ganância traindo a segurança da IA

O relatório de ‘The Openai Files’, montando vozes de ex-funcionários em questão, afirma que o laboratório de IA mais proeminente do mundo está traindo a segurança para obter lucro. O que começou como uma busca nobre para garantir que a IA serviria toda a humanidade agora está ancontrando à beira de se tornar apenas mais um gigante corporativo, perseguindo imensos lucros, deixando a segurança e a ética no pó.

No centro de tudo, há um plano para rasgar o livro de regras original. Quando o OpenAI começou, fez uma promessa crucial: ele limitou a quantidade de dinheiro que os investidores poderiam ganhar. Era uma garantia legal que, se eles conseguissem criar IA que muda o mundo, os vastos benefícios fluiriam para a humanidade, não apenas um punhado de bilionários. Agora, essa promessa está prestes a ser apagada, aparentemente para satisfazer os investidores que desejam retornos ilimitados.

Para as pessoas que construíram o Openai, esse pivô longe da segurança da IA ​​parece uma traição profunda. “A missão sem fins lucrativos foi uma promessa de fazer a coisa certa quando as apostas ficaram chapadas”, diz o ex-membro da equipe Carroll Wainwright. “Agora que as apostas são altas, a estrutura sem fins lucrativos está sendo abandonada, o que significa que a promessa estava vazia.”

Aprofundando a crise de confiança

Muitas dessas vozes profundamente preocupadas apontam para uma pessoa: o CEO Sam Altman. As preocupações não são novas. Os relatórios sugerem que, mesmo em suas empresas anteriores, os colegas seniores tentaram removê -lo para o que chamavam de comportamento “enganoso e caótico”.

A mesma sensação de desconfiança o seguiu para Openai. O co-fundador da empresa, Ilya Sutskever, que trabalhou ao lado de Altman por anos, e desde que lançou sua própria startup, chegou a uma conclusão assustadora: “Não acho que Sam seja o cara que deveria ter o dedo no botão da AGI”. Ele sentiu que Altman era desonesto e criou o caos, uma combinação aterrorizante para alguém potencialmente encarregado de nosso futuro coletivo.

Mira Murati, a ex -CTO, parecia tão desconfortável. “Não me sinto confortável com Sam nos levando a Agi”, disse ela. Ela descreveu um padrão tóxico em que Altman diria às pessoas o que elas queriam ouvir e as prejudicariam se elas ficassem no seu caminho. Isso sugere manipulação de que o ex -membro do conselho do Openai, Tasha McCauley, diz “deve ser inaceitável” quando as apostas de segurança da IA ​​estiverem tão altas.

Essa crise de confiança teve consequências do mundo real. Os especialistas dizem que a cultura no Openai mudou, com o trabalho crucial da segurança da IA ​​levando um banco de trás para liberar “produtos brilhantes”. Jan Like, que liderou a equipe responsável pela segurança a longo prazo, disse que estava “navegando contra o vento”, lutando para obter os recursos necessários para fazer suas pesquisas vitais.

Outro ex-funcionário, William Saunders, até deu um testemunho aterrorizante ao Senado dos EUA, revelando que, por longos períodos, a segurança era tão fraca que centenas de engenheiros poderiam ter roubado a IA mais avançada da empresa, incluindo o GPT-4.

Desperdo desesperado para priorizar a segurança da IA ​​no OpenAi

Mas aqueles que saíram não estão apenas se afastando. Eles exibiram um roteiro para puxar o Open de volta da beira, um esforço de última hora para salvar a missão original.

Eles estão pedindo que o coração sem fins lucrativos da empresa receba poder real novamente, com um veto revestido de ferro sobre as decisões de segurança. Eles estão exigindo liderança clara e honesta, que inclui uma investigação nova e completa sobre a conduta de Sam Altman.

Eles querem supervisão real e independente, para que o Openai não possa simplesmente marcar sua própria lição de casa na segurança da IA. E eles estão pedindo uma cultura em que as pessoas possam falar sobre suas preocupações sem temer por seus empregos ou economias – um lugar com proteção real para os denunciantes.

Finalmente, eles estão insistindo que o Openai cumpre sua promessa financeira original: os limites de lucro devem permanecer. O objetivo deve ser o benefício público, não uma riqueza privada ilimitada.

Não se trata apenas do drama interno de uma empresa do Vale do Silício. O Openai está construindo uma tecnologia que pode remodelar nosso mundo de maneiras que mal podemos imaginar. A pergunta que seus ex -funcionários estão forçando a todos nós a fazer é simples, mas profunda: em quem confiamos para construir nosso futuro?

Como a ex -membro do conselho Helen Toner alertou de sua própria experiência, “os corrimãos internos são frágeis quando o dinheiro está em jogo”.

No momento, as pessoas que conhecem o OpenAi Best estão nos dizendo que esses corrimãos de segurança estão quase quebrados.

Veja também: A adoção da IA ​​amadurece, mas os obstáculos de implantação permanecem

Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira Ai & Big Data Expo Ocorrendo em Amsterdã, Califórnia e Londres. O evento abrangente é co-localizado com outros eventos principais, incluindo Conferência de Automação InteligenteAssim, BlockxAssim, Semana de Transformação Digitale Cyber ​​Security & Cloud Expo.

Explore outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.

Créditos Autor

Deixe um comentário