Fonte da imagem: Gerada pela ferramenta Unbounded AI
À medida que a atividade mensal do ChatGPT atingiu o marco de 1 bilhão, a "turnê global" do fundador da OpenAI, Sam Altman, também atraiu a atenção.
Esta semana, SamAltman veio para a Universidade de Tel Aviv em Israel e conduziu uma entrevista vívida e profunda com Ilya Sutskavel, o cientista-chefe da OpenAI que cresceu em Israel (os dois raramente compartilhavam o mesmo palco). Sam ficou momentaneamente perdido por palavras quando solicitado, e valeu a pena ouvir.
Ponto de vista central:
**1. As vantagens do OpenAI: **Estamos mais focados no que fazemos e nossa cultura se concentra na inovação rigorosa e repetível.
2. O lugar da academia na IA: A academia costumava estar na vanguarda da pesquisa de IA, mas isso mudou devido ao poder de computação mais fraco e à falta de cultura de engenharia. Mas a academia ainda pode fazer contribuições importantes para a IA, resolvendo muitos dos mistérios das redes neurais que estamos treinando.
**3. Código aberto ou não: **Temos o código aberto de alguns modelos e planejamos abrir mais modelos, mas não achamos que seja a estratégia certa abrir o código de todos os modelos e estamos trabalhando duro para encontrar um equilíbrio.
**4. Riscos que não podem ser ignorados na IA: ** Trabalhos são afetados, hackers ganham superinteligência e sistemas perdem o controle são os três riscos preocupantes da IA. A IA pode fazer coisas incríveis, mas também pode fazer coisas ruins, por isso temos estruturas regulatórias apropriadas para controlar o uso dessa tecnologia, como o estabelecimento de instituições globais.
**5. A IA irá acelerar a descoberta científica: **A IA pode ajudar os humanos a alcançar alguns objetivos científicos atualmente inatingíveis, como promover o desenvolvimento médico e de saúde, mitigar os problemas da mudança climática e até mesmo explorar os mistérios do universo. que as pessoas estão mais entusiasmadas.
Toda a entrevista não carece de profundidade, mas também é interessante.
Por exemplo, Ilya disse alegremente que seus pais lhe contaram que seus amigos também usam o ChatGPT diariamente, o que o surpreendeu muito. E quando o público perguntou "Você está fazendo história, como você quer que a história se lembre de você?", Ilya também respondeu espirituosamente: ** "Quero dizer, da melhor maneira."**
O seguinte é o texto completo da entrevista:
Ph.D. e abandono: duas vidas diferentes antes da OpenAI
Ilya:
Dos 5 aos 16 anos, morei em Jerusalém. Entre 2000 e 2002 estudei na Universidade Aberta. Em seguida, mudei-me para a Universidade de Toronto, onde passei 10 anos e fiz bacharelado, mestrado e doutorado. Durante meus estudos de pós-graduação, tive o privilégio de contribuir para avanços importantes no aprendizado profundo. Então co-fundei uma empresa com algumas pessoas que foi adquirida pelo Google, onde trabalhei por um tempo.
Então, um dia recebi um e-mail de Sam que disse: "Ei, vamos sair com algumas pessoas legais." Fiquei intrigado, então fui em frente. Essa foi a primeira vez que encontrei Elon Musk e Greg Brockman, e decidimos começar a jornada OpenAI. Fazemos isso há muitos anos, então é aqui que estamos atualmente.
Ele mesmo:
Quando criança, eu estava muito entusiasmado com a IA e era um nerd de ficção científica. Nunca me ocorreu ter a oportunidade de estudá-lo, mas na faculdade comecei a trabalhar nisso por um tempo. Mas naquela época não tinha realmente decolado, era como 2004... Abandonei a escola e fiz startups.
Depois de um tempo após o progresso que Ilya mencionou, fiquei muito animado com o que estava acontecendo com a IA e enviei um e-mail para ele, e ainda estamos indo.
As vantagens do OpenAI
hospedar:
O que você vê como os principais pontos fortes da OpenAI, especialmente porque os concorrentes geralmente são maiores e têm mais recursos, tornando-a líder em IA generativa?
Ele mesmo:
Acreditamos que uma das principais vantagens é o nosso maior foco no que fazemos. É importante e incompreendido que tenhamos uma densidade de talentos maior do que as empresas maiores. **Nossa cultura valoriza o rigor e a inovação repetível, sendo difícil e raro que essas duas culturas coexistam. **
Ilya:
Sim, só posso acrescentar uma pequena quantia à resposta de Sam. **Este é um jogo de fé, mais fé significa mais progresso. **Você fará mais progresso se tiver muita fé. Pode soar como uma piada, mas é realmente verdade. Você tem que acreditar na ideia e insistir, é isso que impulsiona o progresso.
A posição da academia no campo da IA
hospedar:
Avanços recentes em inteligência artificial foram em grande parte impulsionados pela indústria, que papel você acha que a pesquisa acadêmica deve desempenhar no desenvolvimento do campo?
Ilya:
O papel da academia no campo da IA mudou significativamente. A academia costumava estar na vanguarda da pesquisa de IA, mas isso mudou. Há dois motivos: poder de computação e cultura de engenharia. A academia tem menos poder de computação e muitas vezes carece de uma cultura de engenharia.
No entanto, a academia ainda pode fazer contribuições significativas e importantes para a IA. **Academia pode desvendar muitos mistérios das redes neurais que estamos treinando e criando objetos complexos e surpreendentes. **
O que é aprendizagem profunda? É um processo alquímico onde usamos dados como matéria-prima, combinados com energia computacional, para obter essa inteligência. Mas o que exatamente é isso? Como funciona? Que propriedades tem? Como o controlamos? Como entendê-lo? Como aplicá-lo? Como medi-lo? Essas questões são todas incógnitas.
**Mesmo em tarefas de medição simples, não podemos avaliar com precisão o desempenho de nossa IA. Isso não era um problema no passado porque a IA não era tão importante. A inteligência artificial é muito importante agora, mas percebemos que ainda não podemos medi-la totalmente. **
Então, comecei a pensar em alguns problemas que não podem ser resolvidos por ninguém. Você não precisa de grandes clusters de computação ou grandes equipes de engenharia para fazer essas perguntas e progredir. Se você avançar, será uma contribuição atraente e significativa à qual todos prestarão atenção imediatamente.
hospedar:
Queremos ver um progresso totalmente equilibrado entre a indústria e a academia, e queremos ver mais desses tipos de contribuições. Você acha que há algo que pode ser feito para melhorar a situação, especialmente do seu cargo, existe algum tipo de apoio disponível?
Ilya:
Em primeiro lugar, acho que a mudança de mentalidade é a primeira e mais importante. Estou um pouco fora da academia ultimamente, mas acho que há alguma crise no que estamos fazendo.
Há muita dinâmica em torno de um grande número de artigos, mas é importante focar na solução dos problemas mais críticos. Precisamos mudar nossa mentalidade e focar nas questões mais importantes. **Não podemos apenas nos concentrar no que já sabemos, mas estar cientes do que está errado. **Uma vez que entendemos os problemas, podemos avançar para resolvê-los.
Além disso, podemos ajudar. Por exemplo, temos um Programa de Acesso Acadêmico onde os acadêmicos podem se inscrever para ganhar capacidade de computação e acesso aos nossos modelos de última geração. Muitas universidades escreveram artigos usando o GPT-3, estudando as propriedades e vieses dos modelos. Se você tiver mais ideias, adoraria ouvi-las.
código aberto OU não código aberto
hospedar:
Enquanto alguns jogadores realmente promovem o lançamento de código aberto de seus modelos e códigos, outros não fazem o suficiente. Isso também é sobre IA aberta. Então, eu estou pensando, em primeiro lugar, qual é a sua opinião sobre isso? Se você concorda, por que você acha que OpenAI é a estratégia certa?
Ele mesmo:
**Temos alguns modelos de código aberto e planejamos abrir mais com o tempo. Mas não acho que o código aberto seja a estratégia certa. **Se os modelos de hoje são interessantes, podem ser úteis para alguma coisa, mas ainda são relativamente primitivos em comparação com o que estamos prestes a criar. Acho que a maioria das pessoas concordaria com isso. Se soubermos fazer um AGI super poderoso que tenha muitas vantagens, mas também desvantagens, o código aberto pode não ser a melhor opção.
**Então estamos tentando encontrar um equilíbrio. **Vamos abrir o código de algumas coisas e, à medida que nossa compreensão do modelo melhorar, seremos capazes de abrir o código mais ao longo do tempo. Lançamos muitas coisas e acho que muitas das ideias-chave que outros estão construindo modelos de linguagem agora vêm dos lançamentos da OpenAI, como os primeiros documentos GPT e leis de escala do trabalho de rohf. Mas é um equilíbrio que teremos que descobrir à medida que avançamos. Enfrentamos muitos estressores diferentes e precisamos gerenciá-los com sucesso.
hospedar:
Então, você está pensando em disponibilizar o modelo para um público específico, em vez de abrir o código para o mundo? O que você está pensando como cientista, ou quando terminamos de treinar o GPT-4?
Ele mesmo:
Levamos quase oito meses para entendê-lo, protegê-lo e descobrir como ajustar. Temos auditores externos, equipes vermelhas e a comunidade científica envolvida. Portanto, estamos tomando essas medidas e continuaremos a fazê-lo.
Riscos que a IA não pode ignorar
hospedar:
Eu acho que o risco é uma questão muito importante e provavelmente existem pelo menos três categorias de risco.
O primeiro é o deslocamento econômico, no qual os empregos se tornam redundantes. A segunda categoria pode ser situações em que armas poderosas estão nas mãos de poucos. Por exemplo, se os hackers pudessem usar essas ferramentas, eles poderiam fazer coisas que teriam levado milhares de hackers antes. A última categoria é provavelmente a mais preocupante, onde o sistema está fora de controle e nem mesmo o gatilho pode impedir seu comportamento. Eu gostaria de saber sua opinião sobre o que cada um desses cenários pode ser.
Ilya:
OK, vamos começar com os possíveis cenários de caos econômico. Como você mencionou, existem três riscos em **: empregos comprometidos, hackers ganhando superinteligência e sistemas fora de controle. **O caos econômico é de fato uma situação que já conhecemos, pois alguns empregos já estão afetados ou em risco.
Em outras palavras, certas tarefas podem ser automatizadas. Por exemplo, se você for um programador, o Copilot pode escrever funções para você. Embora isso seja diferente do caso dos artistas, já que muitas atividades econômicas dos artistas foram substituídas por alguns geradores de imagens.
Eu não acho que esta é realmente uma pergunta simples. **Apesar da criação de novos empregos, a incerteza econômica persistirá por muito tempo. Não tenho certeza se este é o caso. **
De qualquer forma, porém, precisamos de algo para suavizar a transição para o ataque de carreiras emergentes, mesmo que essas carreiras ainda não existam. Isso requer a atenção do governo e do sistema social.
Agora vamos falar sobre hacking. Sim, esta é uma pergunta complicada. A IA é realmente poderosa e os bandidos podem usá-la de maneiras poderosas. Precisamos aplicar uma estrutura semelhante a outras ferramentas muito poderosas e perigosas.
Observe que não estamos falando de inteligência artificial hoje, mas das capacidades crescentes ao longo do tempo. No momento estamos em um ponto baixo, mas quando chegarmos lá será muito forte. **Esta tecnologia pode ser usada em aplicações incríveis, pode ser usada para curar doenças, mas também pode criar doenças piores do que qualquer outra que já existiu.
Portanto, precisamos de estruturas para controlar o uso dessa tecnologia. Sam, por exemplo, apresentou um documento a eles propondo uma estrutura semelhante à AIEA para controlar a energia nuclear para controlar uma inteligência artificial muito poderosa. **
hospedar:
A última pergunta é sobre a inteligência artificial superinteligente ficar fora de controle. Pode-se dizer que isso se tornará um grande problema. É um erro construir uma inteligência artificial superinteligente que não sabemos como controlar.
Ele mesmo:
Posso acrescentar alguns pontos. Claro, concordo plenamente com a última frase.
Na frente econômica, acho difícil prever desenvolvimentos futuros. Acho que é porque há muito excesso de demanda no mundo agora, e esses sistemas são muito bons para ajudar a fazer as coisas. Mas na maioria dos casos hoje, nem todas as tarefas podem ser realizadas por eles.
**Acho que no curto prazo as coisas estão boas e veremos um aumento significativo na produtividade. **Se pudéssemos tornar os programadores duas vezes mais produtivos, a quantidade de código necessária no mundo mais do que triplicaria, então tudo parece bem.
A longo prazo, acho que esses sistemas lidarão com tarefas e categorias de trabalho cada vez mais complexas. Alguns desses empregos podem desaparecer,** mas outros se tornarão mais parecidos com empregos que realmente exigem seres humanos e relacionamentos humanos. **As pessoas realmente querem que os humanos desempenhem esses papéis.
Esses papéis podem não ser óbvios. Por exemplo, quando o Deep Blue derrotou Garry Kasparov, o mundo testemunhou a inteligência artificial pela primeira vez. Na época todos diziam que o xadrez tinha acabado e ninguém mais jogaria xadrez porque não fazia sentido.
No entanto, temos um consenso de que o xadrez nunca foi tão popular. Os humanos são mais fortes, só que as expectativas são elevadas. Podemos usar essas ferramentas para melhorar nossas próprias habilidades, mas as pessoas ainda gostam muito de jogar xadrez e ainda parecem se importar com as outras pessoas.
Você mencionou que Dolly pode criar ótimas obras de arte, mas as pessoas ainda se preocupam com as pessoas por trás das obras de arte que desejam comprar, e todos nós pensamos que esses criadores são especiais e valiosos.
Tome o xadrez como exemplo, assim como as pessoas prestam mais atenção ao xadrez humano, mais pessoas assistem ao xadrez humano do que nunca. No entanto, poucas pessoas querem assistir a uma partida entre dois AIs. Então eu acho que eles vão ser todos esses fatores imprevisíveis. **Acho que os humanos anseiam por diferenciação (entre humanos e máquinas). **
A necessidade de criar algo novo para ganhar status sempre vai existir, mas vai se manifestar de uma forma bem diferente. Aposto que os empregos daqui a 100 anos serão completamente diferentes dos empregos de hoje, e muitas dessas coisas serão muito semelhantes. Mas eu realmente concordo com o que Ilya disse, **Aconteça o que acontecer, precisamos de um tipo diferente de contrato socioeconômico, porque a automação atingiu níveis até então inimagináveis. **
hospedar:
Sam, você assinou recentemente uma petição pedindo que a ameaça existencial da inteligência artificial seja levada a sério. Talvez empresas como a OpenAI devam tomar medidas para resolver esse problema.
Ele mesmo:
Eu realmente quero enfatizar que não estamos falando sobre os sistemas de hoje aqui, ou modelos de treinamento de pequenas startups, ou comunidades de código aberto.
Acho que seria um erro impor uma regulamentação pesada no campo agora ou tentar desacelerar uma inovação incrível. Realmente não quero criar uma superinteligência inconsistente que pareça indiscutível. **Acho que o mundo deveria ver isso não como um risco sci-fi que nunca vai chegar, mas como algo que talvez tenhamos que lidar na próxima década, vai demorar para se acostumar com algumas coisas, mas vai' não demore. **
Então tivemos uma ideia e esperamos uma melhor. Se pudermos construir uma organização global, com o mais alto nível de poder de computação e fronteira tecnológica, uma estrutura pode ser desenvolvida para licenciar modelos e auditar sua segurança para garantir que passem nos testes necessários. Isso nos ajudará a ver esse problema como um risco muito sério. Fazemos algo semelhante com a energia nuclear.
No futuro, a IA acelerará as descobertas científicas? Curar doenças, resolver problemas climáticos?
hospedar:
Vamos falar sobre vantagens. Neste ambiente científico em que estamos inseridos, questiono-me sobre o papel da inteligência artificial. Em alguns anos, talvez no futuro, teremos algo científico a descobrir.
Ele mesmo:
**Esta é a coisa que mais me entusiasma pessoalmente na IA. **Acho que há muitas coisas interessantes acontecendo, enormes benefícios econômicos, enormes benefícios para a saúde. Mas, na verdade, a inteligência artificial pode nos ajudar a fazer algumas descobertas científicas que atualmente são impossíveis. Gostaríamos muito de aprender sobre os mistérios do universo e ainda mais. Eu realmente acredito que o progresso científico e tecnológico é a única maneira sustentável de tornar a vida melhor e o mundo um lugar melhor.
Se podemos desenvolver muitos novos avanços científicos e tecnológicos, acho que já vimos o começo das pessoas. Use essas ferramentas para aumentar a eficiência. Mas se você imaginar um mundo onde possa dizer: "Ei, posso ajudar a curar todas as doenças", e isso pode ajudá-lo a curar todas as doenças, esse mundo pode ser um lugar melhor. Acho que não estamos tão longe disso.
hospedar:
Além das doenças, outro grande problema são as mudanças climáticas, que são muito difíceis de resolver. Mas não acho que será particularmente difícil lidar com a mudança climática quando tivermos sistemas superinteligentes realmente poderosos.
Ilya:
Sim, você precisa de muita captura de carbono. Você precisa de energia para capturar carbono e precisa de tecnologia para construí-la. Se você pode acelerar a ciência, precisa construir muito. O progresso é o que a poderosa inteligência artificial pode fazer, e podemos alcançar uma captura de carbono muito avançada muito mais rapidamente. Pode chegar a eletricidade muito barata mais rapidamente, podemos chegar a uma fabricação mais barata mais rapidamente. Agora combine todos os três de eletricidade barata, manufatura barata e captura avançada de carbono, e agora você constrói muitos deles, e agora você suga todo esse excesso de CO2 da atmosfera.
**Se você tiver uma inteligência artificial forte, isso acelerará muito o progresso na ciência e na engenharia. ** Isso tornará o planejamento muito mais fácil hoje. Acredito que isso facilitará a aceleração do progresso. Isso mostra que devemos sonhar maior. Você pode imaginar que, se fosse capaz de projetar um sistema, poderia pedir a ele que lhe dissesse como produzir grandes quantidades de energia limpa a baixo custo, como capturar carbono com eficiência e orientá-lo na construção de uma usina que fizesse essas coisas. . Se você pode alcançá-los, também pode alcançar muitos outros campos.
Bate-papo MaravilhosoGPT
hospedar:
Ouvindo que você não pensou que o ChatGPT seria tão difundido, eu me pergunto se há algum exemplo de outras pessoas que ficaram genuinamente surpresas com seu valor e recursos.
Ilya:
Fiquei tão surpreso e encantado quando meus pais me contaram como seus amigos usam o ChatGPT em sua vida diária. É difícil escolher uma das muitas histórias cativantes que mostram o brilhantismo da criatividade humana e como as pessoas usam essa poderosa ferramenta.
Tem sido muito bom para nós na área da educação e ver tantas pessoas escreverem palavras que mudam suas vidas assim é muito transformador para mim porque agora posso aprender qualquer coisa, aprendo coisas específicas, ou Dizendo coisas que não sabia fazer antes, eu faço agora.
Pessoalmente, ver as pessoas aprenderem de uma forma nova e melhor e imaginar como será daqui a alguns anos é muito gratificante e bonito. Nesse ritmo, não esperávamos que isso acontecesse, o que é realmente incrível.
Depois, há uma história interessante, que acabei de ouvir ontem. Diz-se que um homem costumava passar duas horas todas as noites escrevendo histórias para dormir com seus filhos. Essas histórias são as coisas favoritas das crianças e se tornam um momento especial. Eles se divertiram muito todas as noites.
Perguntas do público:
Pergunta 1:
O LLM de código aberto pode corresponder aos recursos do GPT-4 sem técnicas avançadas adicionais? Ou existe um segredo obscuro no GPT-4 que o diferencia de outros modelos. Estou instalando o modelo vicunha do Stability, 13 bilhões de parâmetros... Estou perdendo tempo?
Sam: Sem palavras...
Ilya:
Em relação à questão dos modelos de código aberto e não-aberto, não precisamos pensar em termos binários de preto e branco. É como se existisse uma fonte secreta que você nunca poderá redescobrir.
**Talvez um dia haja um modelo de código aberto que replique os recursos do GPT-4, mas esse processo levará tempo e, a essa altura, esse modelo poderá se tornar um modelo mais poderoso dentro de uma grande empresa. **Portanto, sempre haverá uma lacuna entre o modelo de código aberto e o modelo privado, e essa lacuna pode aumentar gradativamente. A quantidade de trabalho, engenharia e pesquisa necessária para fazer essa rede neural continuará a aumentar.
Portanto, **mesmo que existam modelos de código aberto, eles serão feitos cada vez menos por um pequeno grupo de pesquisadores e engenheiros dedicados, será apenas uma empresa, uma grande empresa (contribuindo para o código aberto). **
Pergunta 2:
Se você realmente acredita que a IA é perigosa para os humanos, por que continuar a desenvolvê-la? Se a regulamentação fosse imposta à OpenAI e outras empresas de IA, você cumpriria? Zuckerberg disse que tentou fugir de todos os regulamentos que encontrou.
Ele mesmo:
Acho que essa é uma pergunta muito justa e importante. A parte mais difícil do nosso trabalho é equilibrar o enorme potencial oferecido pela inteligência artificial com os graves riscos associados a ela. Precisamos dedicar um tempo para discutir por que enfrentamos esses riscos e por que eles existem em primeiro lugar.
Eu acho que as coisas parecem melhores quando olhamos para o padrão de vida de hoje e nossa maior tolerância para com os humanos. Em comparação com 500 ou 1000 anos atrás, as condições de vida das pessoas melhoraram muito. Nós nos perguntamos: você pode imaginar pessoas vivendo em extrema pobreza? Você pode imaginar pessoas sofrendo de doenças? Você pode imaginar uma situação em que todos não são bem educados? Estas são as realidades dos tempos bárbaros.
**Embora a IA represente alguns riscos, também vemos seu potencial para melhorar nossas vidas, avançar na pesquisa científica e resolver problemas globais. **
Precisamos continuar a desenvolver a IA de maneira responsável, com medidas regulatórias em vigor para garantir que as preocupações éticas e de segurança sejam tratadas adequadamente. Nosso objetivo é fazer da inteligência artificial uma ferramenta para o progresso humano, não uma ameaça. Isso requer nossos esforços conjuntos, incluindo a participação da comunidade técnica, governo e todas as partes da sociedade, para estabelecer uma estrutura ética e sustentável para o desenvolvimento da inteligência artificial.
Como fazer, também acho que é um progresso imparável. A tecnologia não pára, continua a evoluir. Então, como uma grande empresa, temos que descobrir como gerenciar os riscos que acompanham isso.
Parte do motivo é que o risco e a abordagem necessária para enfrentá-lo são extraordinários. Tivemos que criar uma estrutura diferente das estruturas tradicionais. Temos um limite de lucro e acredito que os incentivos são um fator importante. Se você criar os incentivos certos, muitas vezes isso pode levar ao comportamento que você deseja.
Então, tentamos garantir que tudo funcione bem e não dê mais ou menos lucro. Não temos uma estrutura de incentivos como uma empresa como o Facebook, que acho brilhante, o pessoal do Facebook está em uma estrutura de incentivos, mas essa estrutura tem alguns desafios.
Tentamos acumular experiência por meio da AGI. Como Ilya sempre mencionou, inicialmente tentamos experimentar a AGI quando iniciamos a empresa e, posteriormente, construímos a estrutura de lucro. Portanto, precisamos encontrar um equilíbrio entre os requisitos de recursos computacionais e o foco na missão. Um dos temas que discutimos é que tipo de estrutura nos permite abraçar a regulamentação com entusiasmo, mesmo quando ela mais nos prejudica.
Agora é a hora,** estamos conduzindo uma regulamentação global que terá o maior impacto sobre nós. **Claro que seguimos as regras, acho que quando as pessoas estão em risco é mais fácil para elas se comportarem bem, é mais fácil para elas buscarem um propósito. Então, acho que os proprietários dessas empresas líderes estão sentindo isso agora, e você os verá reagir de maneira diferente das empresas de mídia social. Acho que todas as dúvidas e preocupações são justificadas. Lutamos com esse problema todos os dias e não há uma resposta fácil para ele.
Pergunta 3: Quero entender qual é a lacuna entre o modelo de IA que você usa e o modelo que usamos.
Sei que somos limitados de muitas maneiras que você não parece ter, mas qual é a diferença entre o poder que você tem e o poder que podemos usar?
Ilya:
A diferença entre os modelos que você mencionou é realmente um problema.
Quero dizer, agora temos o GPT-4, você sabe que estamos treinando, você tem acesso ao GPT-4** e estamos realmente trabalhando no próximo modelo futuro. **
Talvez eu possa descrever essa lacuna da seguinte maneira: à medida que continuamos a construir e melhorar modelos de IA com recursos aprimorados, há uma lacuna maior que requer períodos e tempo de teste mais longos. Trabalhamos com a equipe para entender as limitações do modelo, e de todas as formas que você conhece, utilizá-lo o máximo possível, mas também estendemos gradualmente o modelo.
Por exemplo, agora o GPT-4 possui recursos de reconhecimento visual e você (a versão que está usando) não lançou esse recurso porque o trabalho final não foi concluído. Mas logo vamos conseguir isso. Então, acho que isso responde à sua pergunta, talvez não muito longe no futuro.
Pergunta 4: Minha pergunta é sobre superinteligência e o dilema Rokos Basilisk, você pode explicar como GPT e OpenAI lidam com esse dilema?
*Observação: o Basilisco de Roko é uma alusão a uma discussão online e um experimento mental envolvendo hipóteses sobre superinteligência futura. *
*Diz-se que essa superinteligência pode obter informações por meio de viagens no tempo ou outros meios que as pessoas causam dor a ela e punem aqueles que não ajudaram a conseguir seu nascimento. Essa alusão, portanto, levanta um dilema ético: se o desenvolvimento da superinteligência deve ser apoiado e promovido agora para evitar possíveis punições no futuro. *
Ilya:
Embora o Basilisco de Rocco não seja algo que nos preocupe particularmente, estamos definitivamente muito preocupados com a superinteligência.
Provavelmente nem todos, nem mesmo todos na platéia entendem o que queremos dizer com superinteligência.
Estamos nos referindo à possibilidade de um dia construir um computador, um cluster de computadores em forma de GPUs, mais inteligente do que qualquer um e capaz de fazer ciência e pesquisa mais rápido do que grandes equipes de cientistas e engenheiros experientes. .
É insano e vai ter um impacto enorme.
Ele pode projetar a próxima versão do sistema de IA e construir uma IA muito poderosa. Portanto, nossa posição é que a **superinteligência tem efeitos de longo alcance, pode ter efeitos muito positivos, mas também é muito perigoso, e precisamos ter cuidado com isso. **
É aqui que entra a abordagem da AIEA (Agência Internacional de Energia Atômica) que você mencionou para sistemas de ponta muito avançados e superinteligência no futuro. Precisamos fazer muita pesquisa para aproveitar o poder de uma superinteligência para corresponder às nossas expectativas, para nosso benefício e para o benefício da humanidade.
Esta é a nossa posição sobre a superinteligência, que é o maior desafio da superinteligência que a humanidade enfrenta.
Olhando para a história evolutiva dos humanos, um replicador unicelular apareceu há cerca de 4 bilhões de anos. Então, ao longo de bilhões de anos, surgiu uma variedade de diferentes organismos unicelulares. Cerca de um bilhão de anos atrás, a vida multicelular começou a surgir. Centenas de milhões de anos atrás, os répteis apareceram na Terra. Os mamíferos surgiram há cerca de 60 milhões de anos. Há cerca de 1 milhão de anos, surgiram os primatas, seguidos pelo surgimento do Homo sapiens. 10.000 anos depois, a escrita apareceu. Depois vieram a Revolução Agrícola, a Revolução Industrial e a Revolução Tecnológica. Agora, finalmente temos AGI, a final da superinteligência e nosso desafio final.
Pergunta 5: Estou estudando ciência da computação e estou prestes a me formar. Será que estudar ciência da computação vai me dar um bom emprego nos próximos 10 a 15 anos?
Ele mesmo:
Acho que estudar ciência da computação é valioso de qualquer maneira.
Embora eu quase nunca escreva código,** considero estudar ciência da computação uma das melhores coisas que já fiz. Ensinou-me a pensar e a resolver problemas, competências muito úteis em qualquer área. **
Mesmo que o trabalho de um programador de computador pareça diferente daqui a 10 a 15 anos, aprender a aprender é uma das habilidades mais importantes, incluindo aprender coisas novas rapidamente, antecipar tendências futuras, ser adaptável e resiliente, entender as necessidades dos outros e como Ser útil.
Portanto, não há dúvida de que a natureza do trabalho mudará, mas não consigo imaginar um mundo onde as pessoas não reservem tempo para fazer algo que crie valor para os outros e todos os benefícios que isso traz. Talvez no futuro nos preocupemos com quem tem a galáxia mais legal, mas certas coisas boas (como a criação de valor) não mudarão.
Pergunta 6: Você está fazendo história, como você quer que a história se lembre de você?
Ilya:
Quero dizer, da melhor maneira possível.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
O fundador da OpenAI e o cientista-chefe raramente estão no mesmo palco: a coisa mais emocionante da IA está acontecendo!
Autor: Zhu Xueying
À medida que a atividade mensal do ChatGPT atingiu o marco de 1 bilhão, a "turnê global" do fundador da OpenAI, Sam Altman, também atraiu a atenção.
Esta semana, SamAltman veio para a Universidade de Tel Aviv em Israel e conduziu uma entrevista vívida e profunda com Ilya Sutskavel, o cientista-chefe da OpenAI que cresceu em Israel (os dois raramente compartilhavam o mesmo palco). Sam ficou momentaneamente perdido por palavras quando solicitado, e valeu a pena ouvir.
Toda a entrevista não carece de profundidade, mas também é interessante.
Por exemplo, Ilya disse alegremente que seus pais lhe contaram que seus amigos também usam o ChatGPT diariamente, o que o surpreendeu muito. E quando o público perguntou "Você está fazendo história, como você quer que a história se lembre de você?", Ilya também respondeu espirituosamente: ** "Quero dizer, da melhor maneira."**
O seguinte é o texto completo da entrevista:
Ph.D. e abandono: duas vidas diferentes antes da OpenAI
Ilya:
Dos 5 aos 16 anos, morei em Jerusalém. Entre 2000 e 2002 estudei na Universidade Aberta. Em seguida, mudei-me para a Universidade de Toronto, onde passei 10 anos e fiz bacharelado, mestrado e doutorado. Durante meus estudos de pós-graduação, tive o privilégio de contribuir para avanços importantes no aprendizado profundo. Então co-fundei uma empresa com algumas pessoas que foi adquirida pelo Google, onde trabalhei por um tempo.
Então, um dia recebi um e-mail de Sam que disse: "Ei, vamos sair com algumas pessoas legais." Fiquei intrigado, então fui em frente. Essa foi a primeira vez que encontrei Elon Musk e Greg Brockman, e decidimos começar a jornada OpenAI. Fazemos isso há muitos anos, então é aqui que estamos atualmente.
Ele mesmo:
Quando criança, eu estava muito entusiasmado com a IA e era um nerd de ficção científica. Nunca me ocorreu ter a oportunidade de estudá-lo, mas na faculdade comecei a trabalhar nisso por um tempo. Mas naquela época não tinha realmente decolado, era como 2004... Abandonei a escola e fiz startups.
Depois de um tempo após o progresso que Ilya mencionou, fiquei muito animado com o que estava acontecendo com a IA e enviei um e-mail para ele, e ainda estamos indo.
As vantagens do OpenAI
hospedar:
O que você vê como os principais pontos fortes da OpenAI, especialmente porque os concorrentes geralmente são maiores e têm mais recursos, tornando-a líder em IA generativa?
Ele mesmo:
Acreditamos que uma das principais vantagens é o nosso maior foco no que fazemos. É importante e incompreendido que tenhamos uma densidade de talentos maior do que as empresas maiores. **Nossa cultura valoriza o rigor e a inovação repetível, sendo difícil e raro que essas duas culturas coexistam. **
Ilya:
Sim, só posso acrescentar uma pequena quantia à resposta de Sam. **Este é um jogo de fé, mais fé significa mais progresso. **Você fará mais progresso se tiver muita fé. Pode soar como uma piada, mas é realmente verdade. Você tem que acreditar na ideia e insistir, é isso que impulsiona o progresso.
A posição da academia no campo da IA
hospedar:
Avanços recentes em inteligência artificial foram em grande parte impulsionados pela indústria, que papel você acha que a pesquisa acadêmica deve desempenhar no desenvolvimento do campo?
Ilya:
O papel da academia no campo da IA mudou significativamente. A academia costumava estar na vanguarda da pesquisa de IA, mas isso mudou. Há dois motivos: poder de computação e cultura de engenharia. A academia tem menos poder de computação e muitas vezes carece de uma cultura de engenharia.
No entanto, a academia ainda pode fazer contribuições significativas e importantes para a IA. **Academia pode desvendar muitos mistérios das redes neurais que estamos treinando e criando objetos complexos e surpreendentes. **
O que é aprendizagem profunda? É um processo alquímico onde usamos dados como matéria-prima, combinados com energia computacional, para obter essa inteligência. Mas o que exatamente é isso? Como funciona? Que propriedades tem? Como o controlamos? Como entendê-lo? Como aplicá-lo? Como medi-lo? Essas questões são todas incógnitas.
**Mesmo em tarefas de medição simples, não podemos avaliar com precisão o desempenho de nossa IA. Isso não era um problema no passado porque a IA não era tão importante. A inteligência artificial é muito importante agora, mas percebemos que ainda não podemos medi-la totalmente. **
Então, comecei a pensar em alguns problemas que não podem ser resolvidos por ninguém. Você não precisa de grandes clusters de computação ou grandes equipes de engenharia para fazer essas perguntas e progredir. Se você avançar, será uma contribuição atraente e significativa à qual todos prestarão atenção imediatamente.
hospedar:
Queremos ver um progresso totalmente equilibrado entre a indústria e a academia, e queremos ver mais desses tipos de contribuições. Você acha que há algo que pode ser feito para melhorar a situação, especialmente do seu cargo, existe algum tipo de apoio disponível?
Ilya:
Em primeiro lugar, acho que a mudança de mentalidade é a primeira e mais importante. Estou um pouco fora da academia ultimamente, mas acho que há alguma crise no que estamos fazendo.
Há muita dinâmica em torno de um grande número de artigos, mas é importante focar na solução dos problemas mais críticos. Precisamos mudar nossa mentalidade e focar nas questões mais importantes. **Não podemos apenas nos concentrar no que já sabemos, mas estar cientes do que está errado. **Uma vez que entendemos os problemas, podemos avançar para resolvê-los.
Além disso, podemos ajudar. Por exemplo, temos um Programa de Acesso Acadêmico onde os acadêmicos podem se inscrever para ganhar capacidade de computação e acesso aos nossos modelos de última geração. Muitas universidades escreveram artigos usando o GPT-3, estudando as propriedades e vieses dos modelos. Se você tiver mais ideias, adoraria ouvi-las.
código aberto OU não código aberto
hospedar:
Enquanto alguns jogadores realmente promovem o lançamento de código aberto de seus modelos e códigos, outros não fazem o suficiente. Isso também é sobre IA aberta. Então, eu estou pensando, em primeiro lugar, qual é a sua opinião sobre isso? Se você concorda, por que você acha que OpenAI é a estratégia certa?
Ele mesmo:
**Temos alguns modelos de código aberto e planejamos abrir mais com o tempo. Mas não acho que o código aberto seja a estratégia certa. **Se os modelos de hoje são interessantes, podem ser úteis para alguma coisa, mas ainda são relativamente primitivos em comparação com o que estamos prestes a criar. Acho que a maioria das pessoas concordaria com isso. Se soubermos fazer um AGI super poderoso que tenha muitas vantagens, mas também desvantagens, o código aberto pode não ser a melhor opção.
**Então estamos tentando encontrar um equilíbrio. **Vamos abrir o código de algumas coisas e, à medida que nossa compreensão do modelo melhorar, seremos capazes de abrir o código mais ao longo do tempo. Lançamos muitas coisas e acho que muitas das ideias-chave que outros estão construindo modelos de linguagem agora vêm dos lançamentos da OpenAI, como os primeiros documentos GPT e leis de escala do trabalho de rohf. Mas é um equilíbrio que teremos que descobrir à medida que avançamos. Enfrentamos muitos estressores diferentes e precisamos gerenciá-los com sucesso.
hospedar:
Então, você está pensando em disponibilizar o modelo para um público específico, em vez de abrir o código para o mundo? O que você está pensando como cientista, ou quando terminamos de treinar o GPT-4?
Ele mesmo:
Levamos quase oito meses para entendê-lo, protegê-lo e descobrir como ajustar. Temos auditores externos, equipes vermelhas e a comunidade científica envolvida. Portanto, estamos tomando essas medidas e continuaremos a fazê-lo.
Riscos que a IA não pode ignorar
hospedar:
Eu acho que o risco é uma questão muito importante e provavelmente existem pelo menos três categorias de risco.
O primeiro é o deslocamento econômico, no qual os empregos se tornam redundantes. A segunda categoria pode ser situações em que armas poderosas estão nas mãos de poucos. Por exemplo, se os hackers pudessem usar essas ferramentas, eles poderiam fazer coisas que teriam levado milhares de hackers antes. A última categoria é provavelmente a mais preocupante, onde o sistema está fora de controle e nem mesmo o gatilho pode impedir seu comportamento. Eu gostaria de saber sua opinião sobre o que cada um desses cenários pode ser.
Ilya:
OK, vamos começar com os possíveis cenários de caos econômico. Como você mencionou, existem três riscos em **: empregos comprometidos, hackers ganhando superinteligência e sistemas fora de controle. **O caos econômico é de fato uma situação que já conhecemos, pois alguns empregos já estão afetados ou em risco.
Em outras palavras, certas tarefas podem ser automatizadas. Por exemplo, se você for um programador, o Copilot pode escrever funções para você. Embora isso seja diferente do caso dos artistas, já que muitas atividades econômicas dos artistas foram substituídas por alguns geradores de imagens.
Eu não acho que esta é realmente uma pergunta simples. **Apesar da criação de novos empregos, a incerteza econômica persistirá por muito tempo. Não tenho certeza se este é o caso. **
De qualquer forma, porém, precisamos de algo para suavizar a transição para o ataque de carreiras emergentes, mesmo que essas carreiras ainda não existam. Isso requer a atenção do governo e do sistema social.
Agora vamos falar sobre hacking. Sim, esta é uma pergunta complicada. A IA é realmente poderosa e os bandidos podem usá-la de maneiras poderosas. Precisamos aplicar uma estrutura semelhante a outras ferramentas muito poderosas e perigosas.
Observe que não estamos falando de inteligência artificial hoje, mas das capacidades crescentes ao longo do tempo. No momento estamos em um ponto baixo, mas quando chegarmos lá será muito forte. **Esta tecnologia pode ser usada em aplicações incríveis, pode ser usada para curar doenças, mas também pode criar doenças piores do que qualquer outra que já existiu.
Portanto, precisamos de estruturas para controlar o uso dessa tecnologia. Sam, por exemplo, apresentou um documento a eles propondo uma estrutura semelhante à AIEA para controlar a energia nuclear para controlar uma inteligência artificial muito poderosa. **
hospedar:
A última pergunta é sobre a inteligência artificial superinteligente ficar fora de controle. Pode-se dizer que isso se tornará um grande problema. É um erro construir uma inteligência artificial superinteligente que não sabemos como controlar.
Ele mesmo:
Posso acrescentar alguns pontos. Claro, concordo plenamente com a última frase.
Na frente econômica, acho difícil prever desenvolvimentos futuros. Acho que é porque há muito excesso de demanda no mundo agora, e esses sistemas são muito bons para ajudar a fazer as coisas. Mas na maioria dos casos hoje, nem todas as tarefas podem ser realizadas por eles.
**Acho que no curto prazo as coisas estão boas e veremos um aumento significativo na produtividade. **Se pudéssemos tornar os programadores duas vezes mais produtivos, a quantidade de código necessária no mundo mais do que triplicaria, então tudo parece bem.
A longo prazo, acho que esses sistemas lidarão com tarefas e categorias de trabalho cada vez mais complexas. Alguns desses empregos podem desaparecer,** mas outros se tornarão mais parecidos com empregos que realmente exigem seres humanos e relacionamentos humanos. **As pessoas realmente querem que os humanos desempenhem esses papéis.
Esses papéis podem não ser óbvios. Por exemplo, quando o Deep Blue derrotou Garry Kasparov, o mundo testemunhou a inteligência artificial pela primeira vez. Na época todos diziam que o xadrez tinha acabado e ninguém mais jogaria xadrez porque não fazia sentido.
No entanto, temos um consenso de que o xadrez nunca foi tão popular. Os humanos são mais fortes, só que as expectativas são elevadas. Podemos usar essas ferramentas para melhorar nossas próprias habilidades, mas as pessoas ainda gostam muito de jogar xadrez e ainda parecem se importar com as outras pessoas.
Você mencionou que Dolly pode criar ótimas obras de arte, mas as pessoas ainda se preocupam com as pessoas por trás das obras de arte que desejam comprar, e todos nós pensamos que esses criadores são especiais e valiosos.
Tome o xadrez como exemplo, assim como as pessoas prestam mais atenção ao xadrez humano, mais pessoas assistem ao xadrez humano do que nunca. No entanto, poucas pessoas querem assistir a uma partida entre dois AIs. Então eu acho que eles vão ser todos esses fatores imprevisíveis. **Acho que os humanos anseiam por diferenciação (entre humanos e máquinas). **
A necessidade de criar algo novo para ganhar status sempre vai existir, mas vai se manifestar de uma forma bem diferente. Aposto que os empregos daqui a 100 anos serão completamente diferentes dos empregos de hoje, e muitas dessas coisas serão muito semelhantes. Mas eu realmente concordo com o que Ilya disse, **Aconteça o que acontecer, precisamos de um tipo diferente de contrato socioeconômico, porque a automação atingiu níveis até então inimagináveis. **
hospedar:
Sam, você assinou recentemente uma petição pedindo que a ameaça existencial da inteligência artificial seja levada a sério. Talvez empresas como a OpenAI devam tomar medidas para resolver esse problema.
Ele mesmo:
Eu realmente quero enfatizar que não estamos falando sobre os sistemas de hoje aqui, ou modelos de treinamento de pequenas startups, ou comunidades de código aberto.
Acho que seria um erro impor uma regulamentação pesada no campo agora ou tentar desacelerar uma inovação incrível. Realmente não quero criar uma superinteligência inconsistente que pareça indiscutível. **Acho que o mundo deveria ver isso não como um risco sci-fi que nunca vai chegar, mas como algo que talvez tenhamos que lidar na próxima década, vai demorar para se acostumar com algumas coisas, mas vai' não demore. **
Então tivemos uma ideia e esperamos uma melhor. Se pudermos construir uma organização global, com o mais alto nível de poder de computação e fronteira tecnológica, uma estrutura pode ser desenvolvida para licenciar modelos e auditar sua segurança para garantir que passem nos testes necessários. Isso nos ajudará a ver esse problema como um risco muito sério. Fazemos algo semelhante com a energia nuclear.
No futuro, a IA acelerará as descobertas científicas? Curar doenças, resolver problemas climáticos?
hospedar:
Vamos falar sobre vantagens. Neste ambiente científico em que estamos inseridos, questiono-me sobre o papel da inteligência artificial. Em alguns anos, talvez no futuro, teremos algo científico a descobrir.
Ele mesmo:
**Esta é a coisa que mais me entusiasma pessoalmente na IA. **Acho que há muitas coisas interessantes acontecendo, enormes benefícios econômicos, enormes benefícios para a saúde. Mas, na verdade, a inteligência artificial pode nos ajudar a fazer algumas descobertas científicas que atualmente são impossíveis. Gostaríamos muito de aprender sobre os mistérios do universo e ainda mais. Eu realmente acredito que o progresso científico e tecnológico é a única maneira sustentável de tornar a vida melhor e o mundo um lugar melhor.
Se podemos desenvolver muitos novos avanços científicos e tecnológicos, acho que já vimos o começo das pessoas. Use essas ferramentas para aumentar a eficiência. Mas se você imaginar um mundo onde possa dizer: "Ei, posso ajudar a curar todas as doenças", e isso pode ajudá-lo a curar todas as doenças, esse mundo pode ser um lugar melhor. Acho que não estamos tão longe disso.
hospedar:
Além das doenças, outro grande problema são as mudanças climáticas, que são muito difíceis de resolver. Mas não acho que será particularmente difícil lidar com a mudança climática quando tivermos sistemas superinteligentes realmente poderosos.
Ilya:
Sim, você precisa de muita captura de carbono. Você precisa de energia para capturar carbono e precisa de tecnologia para construí-la. Se você pode acelerar a ciência, precisa construir muito. O progresso é o que a poderosa inteligência artificial pode fazer, e podemos alcançar uma captura de carbono muito avançada muito mais rapidamente. Pode chegar a eletricidade muito barata mais rapidamente, podemos chegar a uma fabricação mais barata mais rapidamente. Agora combine todos os três de eletricidade barata, manufatura barata e captura avançada de carbono, e agora você constrói muitos deles, e agora você suga todo esse excesso de CO2 da atmosfera.
**Se você tiver uma inteligência artificial forte, isso acelerará muito o progresso na ciência e na engenharia. ** Isso tornará o planejamento muito mais fácil hoje. Acredito que isso facilitará a aceleração do progresso. Isso mostra que devemos sonhar maior. Você pode imaginar que, se fosse capaz de projetar um sistema, poderia pedir a ele que lhe dissesse como produzir grandes quantidades de energia limpa a baixo custo, como capturar carbono com eficiência e orientá-lo na construção de uma usina que fizesse essas coisas. . Se você pode alcançá-los, também pode alcançar muitos outros campos.
Bate-papo MaravilhosoGPT
hospedar:
Ouvindo que você não pensou que o ChatGPT seria tão difundido, eu me pergunto se há algum exemplo de outras pessoas que ficaram genuinamente surpresas com seu valor e recursos.
Ilya:
Fiquei tão surpreso e encantado quando meus pais me contaram como seus amigos usam o ChatGPT em sua vida diária. É difícil escolher uma das muitas histórias cativantes que mostram o brilhantismo da criatividade humana e como as pessoas usam essa poderosa ferramenta.
Tem sido muito bom para nós na área da educação e ver tantas pessoas escreverem palavras que mudam suas vidas assim é muito transformador para mim porque agora posso aprender qualquer coisa, aprendo coisas específicas, ou Dizendo coisas que não sabia fazer antes, eu faço agora.
Pessoalmente, ver as pessoas aprenderem de uma forma nova e melhor e imaginar como será daqui a alguns anos é muito gratificante e bonito. Nesse ritmo, não esperávamos que isso acontecesse, o que é realmente incrível.
Depois, há uma história interessante, que acabei de ouvir ontem. Diz-se que um homem costumava passar duas horas todas as noites escrevendo histórias para dormir com seus filhos. Essas histórias são as coisas favoritas das crianças e se tornam um momento especial. Eles se divertiram muito todas as noites.
Perguntas do público:
Sam: Sem palavras...
Ilya:
Em relação à questão dos modelos de código aberto e não-aberto, não precisamos pensar em termos binários de preto e branco. É como se existisse uma fonte secreta que você nunca poderá redescobrir.
**Talvez um dia haja um modelo de código aberto que replique os recursos do GPT-4, mas esse processo levará tempo e, a essa altura, esse modelo poderá se tornar um modelo mais poderoso dentro de uma grande empresa. **Portanto, sempre haverá uma lacuna entre o modelo de código aberto e o modelo privado, e essa lacuna pode aumentar gradativamente. A quantidade de trabalho, engenharia e pesquisa necessária para fazer essa rede neural continuará a aumentar.
Portanto, **mesmo que existam modelos de código aberto, eles serão feitos cada vez menos por um pequeno grupo de pesquisadores e engenheiros dedicados, será apenas uma empresa, uma grande empresa (contribuindo para o código aberto). **
Ele mesmo:
Acho que essa é uma pergunta muito justa e importante. A parte mais difícil do nosso trabalho é equilibrar o enorme potencial oferecido pela inteligência artificial com os graves riscos associados a ela. Precisamos dedicar um tempo para discutir por que enfrentamos esses riscos e por que eles existem em primeiro lugar.
Eu acho que as coisas parecem melhores quando olhamos para o padrão de vida de hoje e nossa maior tolerância para com os humanos. Em comparação com 500 ou 1000 anos atrás, as condições de vida das pessoas melhoraram muito. Nós nos perguntamos: você pode imaginar pessoas vivendo em extrema pobreza? Você pode imaginar pessoas sofrendo de doenças? Você pode imaginar uma situação em que todos não são bem educados? Estas são as realidades dos tempos bárbaros.
**Embora a IA represente alguns riscos, também vemos seu potencial para melhorar nossas vidas, avançar na pesquisa científica e resolver problemas globais. **
Precisamos continuar a desenvolver a IA de maneira responsável, com medidas regulatórias em vigor para garantir que as preocupações éticas e de segurança sejam tratadas adequadamente. Nosso objetivo é fazer da inteligência artificial uma ferramenta para o progresso humano, não uma ameaça. Isso requer nossos esforços conjuntos, incluindo a participação da comunidade técnica, governo e todas as partes da sociedade, para estabelecer uma estrutura ética e sustentável para o desenvolvimento da inteligência artificial.
Como fazer, também acho que é um progresso imparável. A tecnologia não pára, continua a evoluir. Então, como uma grande empresa, temos que descobrir como gerenciar os riscos que acompanham isso.
Parte do motivo é que o risco e a abordagem necessária para enfrentá-lo são extraordinários. Tivemos que criar uma estrutura diferente das estruturas tradicionais. Temos um limite de lucro e acredito que os incentivos são um fator importante. Se você criar os incentivos certos, muitas vezes isso pode levar ao comportamento que você deseja.
Então, tentamos garantir que tudo funcione bem e não dê mais ou menos lucro. Não temos uma estrutura de incentivos como uma empresa como o Facebook, que acho brilhante, o pessoal do Facebook está em uma estrutura de incentivos, mas essa estrutura tem alguns desafios.
Tentamos acumular experiência por meio da AGI. Como Ilya sempre mencionou, inicialmente tentamos experimentar a AGI quando iniciamos a empresa e, posteriormente, construímos a estrutura de lucro. Portanto, precisamos encontrar um equilíbrio entre os requisitos de recursos computacionais e o foco na missão. Um dos temas que discutimos é que tipo de estrutura nos permite abraçar a regulamentação com entusiasmo, mesmo quando ela mais nos prejudica.
Agora é a hora,** estamos conduzindo uma regulamentação global que terá o maior impacto sobre nós. **Claro que seguimos as regras, acho que quando as pessoas estão em risco é mais fácil para elas se comportarem bem, é mais fácil para elas buscarem um propósito. Então, acho que os proprietários dessas empresas líderes estão sentindo isso agora, e você os verá reagir de maneira diferente das empresas de mídia social. Acho que todas as dúvidas e preocupações são justificadas. Lutamos com esse problema todos os dias e não há uma resposta fácil para ele.
Ilya:
A diferença entre os modelos que você mencionou é realmente um problema.
Quero dizer, agora temos o GPT-4, você sabe que estamos treinando, você tem acesso ao GPT-4** e estamos realmente trabalhando no próximo modelo futuro. **
Talvez eu possa descrever essa lacuna da seguinte maneira: à medida que continuamos a construir e melhorar modelos de IA com recursos aprimorados, há uma lacuna maior que requer períodos e tempo de teste mais longos. Trabalhamos com a equipe para entender as limitações do modelo, e de todas as formas que você conhece, utilizá-lo o máximo possível, mas também estendemos gradualmente o modelo.
Por exemplo, agora o GPT-4 possui recursos de reconhecimento visual e você (a versão que está usando) não lançou esse recurso porque o trabalho final não foi concluído. Mas logo vamos conseguir isso. Então, acho que isso responde à sua pergunta, talvez não muito longe no futuro.
*Observação: o Basilisco de Roko é uma alusão a uma discussão online e um experimento mental envolvendo hipóteses sobre superinteligência futura. *
*Diz-se que essa superinteligência pode obter informações por meio de viagens no tempo ou outros meios que as pessoas causam dor a ela e punem aqueles que não ajudaram a conseguir seu nascimento. Essa alusão, portanto, levanta um dilema ético: se o desenvolvimento da superinteligência deve ser apoiado e promovido agora para evitar possíveis punições no futuro. *
Ilya:
Embora o Basilisco de Rocco não seja algo que nos preocupe particularmente, estamos definitivamente muito preocupados com a superinteligência.
Provavelmente nem todos, nem mesmo todos na platéia entendem o que queremos dizer com superinteligência.
Estamos nos referindo à possibilidade de um dia construir um computador, um cluster de computadores em forma de GPUs, mais inteligente do que qualquer um e capaz de fazer ciência e pesquisa mais rápido do que grandes equipes de cientistas e engenheiros experientes. .
É insano e vai ter um impacto enorme.
Ele pode projetar a próxima versão do sistema de IA e construir uma IA muito poderosa. Portanto, nossa posição é que a **superinteligência tem efeitos de longo alcance, pode ter efeitos muito positivos, mas também é muito perigoso, e precisamos ter cuidado com isso. **
É aqui que entra a abordagem da AIEA (Agência Internacional de Energia Atômica) que você mencionou para sistemas de ponta muito avançados e superinteligência no futuro. Precisamos fazer muita pesquisa para aproveitar o poder de uma superinteligência para corresponder às nossas expectativas, para nosso benefício e para o benefício da humanidade.
Esta é a nossa posição sobre a superinteligência, que é o maior desafio da superinteligência que a humanidade enfrenta.
Olhando para a história evolutiva dos humanos, um replicador unicelular apareceu há cerca de 4 bilhões de anos. Então, ao longo de bilhões de anos, surgiu uma variedade de diferentes organismos unicelulares. Cerca de um bilhão de anos atrás, a vida multicelular começou a surgir. Centenas de milhões de anos atrás, os répteis apareceram na Terra. Os mamíferos surgiram há cerca de 60 milhões de anos. Há cerca de 1 milhão de anos, surgiram os primatas, seguidos pelo surgimento do Homo sapiens. 10.000 anos depois, a escrita apareceu. Depois vieram a Revolução Agrícola, a Revolução Industrial e a Revolução Tecnológica. Agora, finalmente temos AGI, a final da superinteligência e nosso desafio final.
Ele mesmo:
Acho que estudar ciência da computação é valioso de qualquer maneira.
Embora eu quase nunca escreva código,** considero estudar ciência da computação uma das melhores coisas que já fiz. Ensinou-me a pensar e a resolver problemas, competências muito úteis em qualquer área. **
Mesmo que o trabalho de um programador de computador pareça diferente daqui a 10 a 15 anos, aprender a aprender é uma das habilidades mais importantes, incluindo aprender coisas novas rapidamente, antecipar tendências futuras, ser adaptável e resiliente, entender as necessidades dos outros e como Ser útil.
Portanto, não há dúvida de que a natureza do trabalho mudará, mas não consigo imaginar um mundo onde as pessoas não reservem tempo para fazer algo que crie valor para os outros e todos os benefícios que isso traz. Talvez no futuro nos preocupemos com quem tem a galáxia mais legal, mas certas coisas boas (como a criação de valor) não mudarão.
Ilya:
Quero dizer, da melhor maneira possível.