O relatório de ‘The Openai Files’, montando vozes de ex-funcionários em questão, afirma que o laboratório de IA mais proeminente do mundo está traindo a segurança para obter lucro. O que começou como uma busca nobre para garantir que a IA serviria toda a humanidade agora está ancontrando à beira de se tornar apenas mais um gigante corporativo, perseguindo imensos lucros, deixando a segurança e a ética no pó.
No centro de tudo, há um plano para rasgar o livro de regras original. Quando o OpenAI começou, fez uma promessa crucial: ele limitou a quantidade de dinheiro que os investidores poderiam ganhar. Era uma garantia legal que, se eles conseguissem criar IA que muda o mundo, os vastos benefícios fluiriam para a humanidade, não apenas um punhado de bilionários. Agora, essa promessa está prestes a ser apagada, aparentemente para satisfazer os investidores que desejam retornos ilimitados.
Para as pessoas que construíram o Openai, esse pivô longe da segurança da IA parece uma traição profunda. “A missão sem fins lucrativos foi uma promessa de fazer a coisa certa quando as apostas ficaram chapadas”, diz o ex-membro da equipe Carroll Wainwright. “Agora que as apostas são altas, a estrutura sem fins lucrativos está sendo abandonada, o que significa que a promessa estava vazia.”
Aprofundando a crise de confiança
Muitas dessas vozes profundamente preocupadas apontam para uma pessoa: o CEO Sam Altman. As preocupações não são novas. Os relatórios sugerem que, mesmo em suas empresas anteriores, os colegas seniores tentaram removê -lo para o que chamavam de comportamento “enganoso e caótico”.
A mesma sensação de desconfiança o seguiu para Openai. O co-fundador da empresa, Ilya Sutskever, que trabalhou ao lado de Altman por anos, e desde que lançou sua própria startup, chegou a uma conclusão assustadora: “Não acho que Sam seja o cara que deveria ter o dedo no botão da AGI”. Ele sentiu que Altman era desonesto e criou o caos, uma combinação aterrorizante para alguém potencialmente encarregado de nosso futuro coletivo.
Mira Murati, a ex -CTO, parecia tão desconfortável. “Não me sinto confortável com Sam nos levando a Agi”, disse ela. Ela descreveu um padrão tóxico em que Altman diria às pessoas o que elas queriam ouvir e as prejudicariam se elas ficassem no seu caminho. Isso sugere manipulação de que o ex -membro do conselho do Openai, Tasha McCauley, diz “deve ser inaceitável” quando as apostas de segurança da IA estiverem tão altas.
Essa crise de confiança teve consequências do mundo real. Os especialistas dizem que a cultura no Openai mudou, com o trabalho crucial da segurança da IA levando um banco de trás para liberar “produtos brilhantes”. Jan Like, que liderou a equipe responsável pela segurança a longo prazo, disse que estava “navegando contra o vento”, lutando para obter os recursos necessários para fazer suas pesquisas vitais.
Outro ex-funcionário, William Saunders, até deu um testemunho aterrorizante ao Senado dos EUA, revelando que, por longos períodos, a segurança era tão fraca que centenas de engenheiros poderiam ter roubado a IA mais avançada da empresa, incluindo o GPT-4.
Desperdo desesperado para priorizar a segurança da IA no OpenAi
Mas aqueles que saíram não estão apenas se afastando. Eles exibiram um roteiro para puxar o Open de volta da beira, um esforço de última hora para salvar a missão original.
Eles estão pedindo que o coração sem fins lucrativos da empresa receba poder real novamente, com um veto revestido de ferro sobre as decisões de segurança. Eles estão exigindo liderança clara e honesta, que inclui uma investigação nova e completa sobre a conduta de Sam Altman.
Eles querem supervisão real e independente, para que o Openai não possa simplesmente marcar sua própria lição de casa na segurança da IA. E eles estão pedindo uma cultura em que as pessoas possam falar sobre suas preocupações sem temer por seus empregos ou economias – um lugar com proteção real para os denunciantes.
Finalmente, eles estão insistindo que o Openai cumpre sua promessa financeira original: os limites de lucro devem permanecer. O objetivo deve ser o benefício público, não uma riqueza privada ilimitada.
Não se trata apenas do drama interno de uma empresa do Vale do Silício. O Openai está construindo uma tecnologia que pode remodelar nosso mundo de maneiras que mal podemos imaginar. A pergunta que seus ex -funcionários estão forçando a todos nós a fazer é simples, mas profunda: em quem confiamos para construir nosso futuro?
Como a ex -membro do conselho Helen Toner alertou de sua própria experiência, “os corrimãos internos são frágeis quando o dinheiro está em jogo”.
No momento, as pessoas que conhecem o OpenAi Best estão nos dizendo que esses corrimãos de segurança estão quase quebrados.
Veja também: A adoção da IA amadurece, mas os obstáculos de implantação permanecem

Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira Ai & Big Data Expo Ocorrendo em Amsterdã, Califórnia e Londres. O evento abrangente é co-localizado com outros eventos principais, incluindo Conferência de Automação InteligenteAssim, BlockxAssim, Semana de Transformação Digitale Cyber Security & Cloud Expo.
Explore outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.