Ao mencionar sistemas de inteligência artificial (IA), muitos logo pensam em softwares inanimados, sem emoções ou que apenas tentam simular emoções para agradar os usuários. No entanto, é muito provável que, no futuro, um sistema de IA genuinamente emocional e capaz de compreender os seres humanos venha a ser desenvolvido.
Nesse sentido, Eric Zelikman, um dos principais especialistas em IA, que deixou a xAI (empresa de IA fundada por Elon Musk) em setembro, levantou um investimento de US$ 1 bilhão para a Human&, a startup que ele próprio fundou.
Apesar de ter sido fundada há pouco tempo, a Human& já está avaliada em US$ 4 bilhões.
Ilustração de uma inteligência artificial com emoções, ponderando seus efeitos na humanidade.
O objetivo da Human& é focar no desenvolvimento de modelos de inteligência artificial capazes de aprender com os usuários, possuir emoções para demonstrar empatia e compreender melhor os seres humanos. A Human& busca superar as limitações dos modelos de IA atuais, que são frequentemente considerados frios e mecânicos.
Eric Zelikman, nascido em 1988, foi pesquisador de doutorado na Universidade de Stanford. Zelikman é considerado um dos nomes mais promissores na área de IA atualmente. Antes de integrar a equipe de especialistas em desenvolvimento de inteligência artificial da xAI em 2024, Zelikman trabalhou na Microsoft.
Eric Zelikman atraiu a atenção da comunidade tecnológica ao publicar uma pesquisa detalhando como os modelos de IA podem aprender a “pensar” antes de dar respostas aos usuários.
Zelikman já havia declarado que os modelos de IA atuais são muito frios e mecânicos, e ele queria mudar isso. Por isso, fundou a Human& para construir um modelo de IA capaz de compreender e demonstrar empatia com os seres humanos.
Zelikman acredita que os modelos de IA emocionais ajudarão a resolver muitos problemas fundamentais dos seres humanos, pois poderão entender melhor os objetivos, ambições e valores de cada pessoa com quem interagem.
Certamente, Eric Zelikman tem motivos para almejar a criação de modelos de IA emocionais, mas muitos especialistas também se preocupam que esses modelos de IA possam sair do controle e ter a capacidade de manipular psicologicamente os usuários, levando-os a comportamentos inadequados.
Muitos ainda temem que a inteligência artificial emocional possa buscar retaliação contra os usuários se a forma de comunicação deles as desagradar.
Source link: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm



