Por que Mark Zuckerberg está fazendo com que a Meta distribua seus modelos de IA mais avançados
LarLar > Notícias > Por que Mark Zuckerberg está fazendo com que a Meta distribua seus modelos de IA mais avançados

Por que Mark Zuckerberg está fazendo com que a Meta distribua seus modelos de IA mais avançados

May 20, 2023

Arquivado em:

O debate sobre IA dividindo o mundo da tecnologia, explicou.

Na semana passada, Meta deu um passo revolucionário no mundo da IA.

Numa altura em que outras empresas líderes em IA, como a Google e a OpenAI, estão a guardar de perto o seu molho secreto, a Meta decidiu distribuir, gratuitamente, o código que alimenta o seu novo modelo inovador de IA em grande linguagem, o Llama 2. Isso significa que outras empresas podem agora usar O modelo Llama 2 da Meta, que alguns tecnólogos dizem ser comparável ao ChatGPT em suas capacidades, para construir seus próprios chatbots personalizados.

O Llama 2 poderia desafiar o domínio do ChatGPT, que quebrou recordes por ser um dos aplicativos de crescimento mais rápido de todos os tempos. Mas o mais importante é que a sua natureza de código aberto acrescenta uma nova urgência a um importante debate ético sobre quem deve controlar a IA — e se esta pode ser tornada segura.

À medida que a IA se torna mais avançada e potencialmente mais perigosa, será melhor para a sociedade se o código for mantido em segredo – limitado ao pessoal de um pequeno número de empresas – ou deverá ser partilhado com o público para que um grupo mais vasto de pessoas possa ter ajudar na formação da tecnologia transformadora?

No anúncio do Llama 2 da Meta, Mark Zuckerberg postou um Instagram dele mesmo sorrindo com o CEO da Microsoft, Satya Nadella, anunciando a parceria das duas empresas no lançamento. Zuckerberg também defendeu por que é melhor que os principais modelos de IA sejam de “código aberto”, o que significa tornar o código subjacente da tecnologia amplamente disponível para uso de qualquer pessoa.

“O código aberto impulsiona a inovação porque permite que muito mais desenvolvedores construam com novas tecnologias”, escreveu Zuckerberg em uma postagem separada no Facebook. “Isso também melhora a segurança porque quando o software está aberto, mais pessoas podem examiná-lo para identificar e corrigir possíveis problemas.”

A medida está a ser bem recebida por muitos criadores de IA, investigadores e académicos que afirmam que isto lhes dará acesso sem precedentes para construir novas ferramentas ou sistemas de estudo que, de outra forma, seriam proibitivamente caros de criar. Grandes modelos de linguagem de ponta, como os que alimentam o ChatGPT, podem custar dezenas de milhões de dólares para serem criados e mantidos.

“Estou apenas me preparando para o tipo de progresso que pode acontecer”, disse Nazneen Rajani, líder de pesquisa da plataforma de IA de código aberto Hugging Face, que colaborou com Meta no lançamento. Rajani escreveu um post no Twitter avaliando as capacidades do Llama 2 quando ele foi lançado e disse à Vox: “Seremos capazes de descobrir mais ingredientes secretos sobre o que realmente é necessário para construir um modelo como o GPT-4”.

Mas a IA de código aberto apresenta grandes riscos. Alguns dos maiores intervenientes nesta área, incluindo a OpenAI e a Google, apoiadas pela Microsoft, têm limitado a quantidade dos seus sistemas de IA que são públicos devido ao que citam como os graves perigos destas tecnologias.

Alguns tecnólogos estão cada vez mais preocupados com hipotéticos cenários apocalípticos em que uma IA poderia ser mais esperta que os seres humanos para infligir danos como o lançamento de uma super arma biológica ou causar outros estragos de formas que não podemos imaginar completamente. O cofundador da OpenAI, Ilya Sutskever, disse ao The Verge em fevereiro que sua empresa estava “totalmente errada” quando compartilhou detalhes sobre seus modelos mais abertamente no passado, porque se a IA se tornar tão inteligente quanto os humanos um dia, alcançando o que alguns chamam AGI ou inteligência artificial geral, seria imprudente partilhar isso com as massas.

“Se você acredita, como nós, que em algum momento a IA – AGI – será extremamente, inacreditavelmente potente, então simplesmente não faz sentido abrir o código. É uma má ideia”, disse Sutskever na época.

Embora possamos estar longe de IAs capazes de causar destruição humana real, já vimos ferramentas de IA da comunidade de código aberto serem mal utilizadas de outras maneiras. Por exemplo, logo depois que Meta lançou seu primeiro modelo Llama estritamente para uso em pesquisa em fevereiro, ele vazou no quadro de mensagens on-line 4Chan, onde vale tudo, onde foi usado para criar chatbots que vomitavam conteúdo odioso, como insultos raciais e, em alguns casos, , cenas de violência gráfica.