Início TECNOLOGIA O fundador do Google Brain, Andrew Ng, acha que você ainda deve...

O fundador do Google Brain, Andrew Ng, acha que você ainda deve aprender a codificar – aqui está o porquê

26
0

 

 

Joe Jenkins

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • AI Dev, conferência de IA da DeepLearning.ai, fez sua estreia em Nova York.
  • Sentamos com Andrew Ng no evento para conversar sobre IA e desenvolvedores.
  • Ng recomenda que todos aprendam a codificar.

O segundo anual Desenvolvedor de IAum encontro sobre todas as coisas sobre IA e software organizado pelo DeepLearning.ai de Andrew Ng, chegou a Nova York na sexta-feira. Em vários painéis e em uma entrevista à ZDNET, o fundador do Google Brain deu conselhos sobre o futuro da área.

A IA rapidamente se tornou um assistente de codificação confiável para muitos desenvolvedores – tanto que muitos estão se perguntando sobre o futuro de toda a profissão. Os trabalhos de codificação de nível básico estão diminuindo para os recém-formados, à medida que as equipes transferem tarefas juniores para assistentes de IA; ao mesmo tempo, os especialistas citam as limitações reais destas ferramentas como prova de que os engenheiros nunca se tornarão obsoletos.

Além disso: por que ferramentas de codificação de IA como Cursor e Replit estão condenadas – e o que vem a seguir

Aqui está o que Ng tinha a dizer sobre como navegar neste futuro incerto, por que todos deveriam aprender a programar e como a governança deveria realmente ser feita.

A codificação ainda é importante – mais ou menos

“Como a codificação de IA reduziu muito os padrões de entrada, espero que possamos encorajar todos a aprender a codificar – não apenas os engenheiros de software”, disse Ng durante sua palestra.

O modo como a IA irá impactar os empregos e o futuro do trabalho ainda está em desenvolvimento. Independentemente disso, Ng disse à ZDNET em uma entrevista que acha que todos deveriam saber o básico de como usar IA para codificar, equivalente a saber “um pouco de matemática” – ainda uma habilidade difícil, mas aplicada de forma mais geral a muitas carreiras para o que você precisar.

“Uma das habilidades mais importantes do futuro é a capacidade de dizer a um computador exatamente o que você quer que ele faça por você”, disse ele, observando que todos deveriam saber o suficiente para falar a linguagem de um computador, sem precisar escrever códigos. “Sintaxe, os encantamentos misteriosos que usamos, isso é menos importante.”

Além disso: OpenAI testou GPT-5, Claude e Gemini em tarefas do mundo real – os resultados foram surpreendentes

Ele acrescentou que deseja receber os vibecoders como membros da comunidade, mesmo que eles próprios não sejam tecnicamente desenvolvedores. Mas ele também não espera que seja fácil. Apesar de observar que “é realmente óbvio que o código deve ser escrito com assistentes de IA”, Ng admitiu que a vibecoding – que ele prefere chamar de “codificação de IA” – o deixa “mentalmente exausto”.

Tornando-se generalistas

Na sua palestra, Ng observou que, como a IA tornou o desenvolvimento de software tão rápido, a gestão de produtos – e não a prototipagem – é o novo ponto de desaceleração para o lançamento de novos produtos. Para manter o ritmo que a IA torna possível, ele recomendou que os engenheiros aprendessem algumas habilidades de gerenciamento de produtos para contornar essa paralisação.

“Engenheiros que aprendem algum trabalho com produtos podem, francamente, formar uma equipe de um só”, disse ele.

Além disso: o que Bill Gates realmente disse sobre a substituição de trabalhos de codificação pela IA

O tema de todos os profissionais – não apenas os desenvolvedores – se tornarem generalistas foi recorrente durante toda a cúpula. Durante um painel sobre desenvolvimento na era da IA, Fabian Hedin, CTO da plataforma de codificação Lovable – uma das startups menos favorecidas na lista recente da a16z – observou que o vibecoding pode permitir que pessoas com profundo conhecimento em um tópico não relacionado a software “iterem muito mais rápido do que antes” usando habilidades de codificação. O moderador Laurence Moroney, diretor de IA da Arm, disse que isso pode aproveitar ao máximo um especialista isolado, uma mudança na forma como as habilidades de nicho funcionam no local de trabalho.

O novo desafio para os desenvolvedores, disse Ng durante o painel, será definir o conceito do que desejam. Hedin concordou, acrescentando que se a IA estiver fazendo a codificação no futuro, os desenvolvedores deverão se concentrar em sua intuição ao construir um produto ou ferramenta.

“O que a IA será pior é na compreensão dos humanos”, disse ele.

Por que os cursos de CS não atendem aos alunos

A realidade da codificação na era da IA ​​começou a atingir os pós-graduados que lutam para encontrar emprego. A ciência da computação, antes considerada uma área de especialização infalível que garantia uma carreira lucrativa, está decepcionando os alunos, disse Ng à ZDNET.

Ele citou a onda de contratações excessivas que as empresas de tecnologia continuaram – e depois reverteram – durante a pandemia de COVID-19 como a principal razão pela qual é difícil encontrar empregos de codificação de nível básico. Além disso, porém, é uma questão de os graduados terem o tipo certo de habilidades de codificação.

“A IA transformou a forma como o código deve ser escrito, mas, francamente, muitas universidades têm demorado a adaptar o currículo”, disse ele. “Portanto, se uma universidade não mudou significativamente os seus currículos desde 2022, então não está a preparar os formandos para os empregos do mercado hoje.”

Além disso: a IA causará ‘caos no emprego’ nos próximos anos, diz o Gartner – o que isso significa

Ng disse que considera “má prática” as universidades concederem diplomas de ciência da computação sem ensinar a esses alunos como otimizar o trabalho com assistentes de IA.

“Na verdade, me sinto mal por ainda haver pessoas hoje recebendo um diploma de bacharel em ciência da computação que não fizeram uma única chamada de API para um único modelo de IA”, disse ele. Para ele, reorientar os cursos de ciência da computação em torno dessa realidade preencherá a lacuna entre graduados despreparados e a necessidade de programadores experientes em IA. “Para os recém-formados que conhecem essas habilidades, não conseguimos encontrar um número suficiente delas”, disse Ng, uma preocupação que ele também observou no início deste outono em um relatório. X postagem.

Medo público da IA

Na sua palestra, Ng reconheceu que “a IA ainda não conquistou os corações e as mentes da América”, referindo-se à percepção pública frequentemente divulgada sobre o que a IA poderia tornar-se no seu pior cenário. Vários palestrantes pediram às centenas de desenvolvedores presentes que mudassem essa percepção.

dsc-2491

 

Joe Jenkins

“Você tem uma visão única sobre o que a IA não é”, disse Miriam Vogel, presidente e CEO da Equal AI. Ela instou os desenvolvedores a não ignorarem os medos das pessoas em relação à tecnologia, mas a participarem ativamente na alfabetização em IA, acrescentando que “vamos falhar” se esse sentimento não melhorar.

Ng acha que terceiros semearam intencionalmente o medo da IA ​​até agora.

“Acho que muito do medo da IA ​​​​foi impulsionado por um punhado de empresas que realizaram quase, francamente, campanhas de relações públicas para fazer com que as pessoas tivessem medo da IA, muitas vezes para fazer lobby”, disse ele à ZDNET durante nossa entrevista. “Acho que isso causou muitos danos ao campo da IA ​​e à liderança americana para os desenvolvedores.”

Quando questionado sobre como os desenvolvedores podem impactar isso, ele disse que deseja que eles tenham uma conversa franca sobre o que funciona e o que não funciona. “Se o público compreender melhor, então todos poderemos chegar a conclusões mais racionais sobre a tecnologia”, disse ele.

Muitos desses medos decorrem da AGI, o equivalente um tanto mal definido da inteligência de nível humano que a OpenAI e a Microsoft, entre outros laboratórios, têm em vista com crescente intensidade. Ng há muito afirma que essas projeções são exageradas.

“Se você olhar para as receitas de treinamento incrivelmente confusas que envolvem o treinamento desses modelos de IA, não há como isso ser AGI – se, por AGI, você se refere a qualquer tarefa intelectual que um ser humano realiza”, disse Ng à ZDNET. “Muito desse conhecimento ainda é, francamente, incorporado nesses sistemas, com pessoas muito inteligentes, com muitos dados.”

Segurança e governança

Numa conversa de painel, Ng reconheceu que o público não sabe realmente o que os laboratórios de IA estão a fazer, o que pode criar pânico, mas apelou às pessoas para não “fazerem um exercício de red teaming e transformá-lo numa sensação mediática”. Ng acrescentou que é menos a favor da marca de segurança e governança da Anthropic, que considera um tanto limitante. Em vez de insistir nos esforços de governação, ele enfatizou os ambientes sandbox “que são garantidos como seguros” como um caminho para uma IA responsável que não prejudique a velocidade.

Vogel definiu governança como “quebrar princípios em fluxos de trabalho acionáveis”, e não criar burocracia. Sua preocupação era menos com os hiperescaladores como OpenAI e Meta, e mais com as pequenas empresas de IA que avançam antes de desenvolverem qualquer estrutura de governança.

Regulando a IA

“Não se consegue liderar a IA aprovando regulamentos”, disse Ng durante um painel, falando sobre a abordagem da UE à legislação sobre IA. Ele creditou ao Plano de Ação de IA da administração Trump, lançado no verão passado, por manter as regulamentações federais flexíveis.

Muitos especialistas em IA estão alarmados com a falta de regulamentação da IA ​​nos EUA. Alguns vêem o fracasso do governo federal em regulamentar as plataformas de redes sociais quando estas proliferaram como um exemplo do que poderia acontecer se a IA continuasse a ultrapassar a legislação. Ng disse ao ZDNET que acha que é uma falsa equivalência.

Além disso: 8 maneiras de tornar a IA responsável parte do DNA da sua empresa

“Estou vendo muito mais propostas regulatórias ruins do que boas”, disse Ng na entrevista, acrescentando que vê a proibição não consensual do deepfake e as ações da FTC contra as empresas usando IA para dimensionar “condutas enganosas ou injustas” como exemplos de boas políticas de IA.

Quando questionado se há alguma outra regulamentação que ele faria em nível federal, ele disse que quer mais requisitos de transparência para grandes empresas de IA desde o início.

“Quando muitas coisas ruins aconteceram nas redes sociais, nenhum de nós sabia disso. Mesmo as pessoas dentro da empresa não sabiam realmente disso”, disse Ng à ZDNET. “Se tivermos regulamentos que exijam que as maiores empresas – apenas as grandes, não coloquemos encargos de conformidade excessivos às pequenas startups – mas se exigirmos algum nível de transparência das empresas com um grande número de utilizadores, isso poderia dar-nos melhores sinais para detectar os problemas reais, em vez de contar com a sorte de haver um denunciante.”

avots