O Futuro da IA Emocional: Celebração ou Alerta?

Sắp xuất hiện trí tuệ nhân tạo có cảm xúc, nên mừng hay lo?

Ao mencionar sistemas de inteligência artificial (IA), muitos logo pensam em softwares inanimados, sem emoções ou que apenas tentam simular emoções para agradar os usuários. No entanto, é muito provável que, no futuro, um sistema de IA genuinamente emocional e capaz de compreender os seres humanos venha a ser desenvolvido.

Nesse sentido, Eric Zelikman, um dos principais especialistas em IA, que deixou a xAI (empresa de IA fundada por Elon Musk) em setembro, levantou um investimento de US$ 1 bilhão para a Human&, a startup que ele próprio fundou.

Apesar de ter sido fundada há pouco tempo, a Human& já está avaliada em US$ 4 bilhões.

Ilustração de uma inteligência artificial com emoções, ponderando seus efeitos na humanidade.Ilustração de uma inteligência artificial com emoções, ponderando seus efeitos na humanidade.

O objetivo da Human& é focar no desenvolvimento de modelos de inteligência artificial capazes de aprender com os usuários, possuir emoções para demonstrar empatia e compreender melhor os seres humanos. A Human& busca superar as limitações dos modelos de IA atuais, que são frequentemente considerados frios e mecânicos.

Eric Zelikman, nascido em 1988, foi pesquisador de doutorado na Universidade de Stanford. Zelikman é considerado um dos nomes mais promissores na área de IA atualmente. Antes de integrar a equipe de especialistas em desenvolvimento de inteligência artificial da xAI em 2024, Zelikman trabalhou na Microsoft.

Eric Zelikman atraiu a atenção da comunidade tecnológica ao publicar uma pesquisa detalhando como os modelos de IA podem aprender a “pensar” antes de dar respostas aos usuários.

Zelikman já havia declarado que os modelos de IA atuais são muito frios e mecânicos, e ele queria mudar isso. Por isso, fundou a Human& para construir um modelo de IA capaz de compreender e demonstrar empatia com os seres humanos.

Zelikman acredita que os modelos de IA emocionais ajudarão a resolver muitos problemas fundamentais dos seres humanos, pois poderão entender melhor os objetivos, ambições e valores de cada pessoa com quem interagem.

Certamente, Eric Zelikman tem motivos para almejar a criação de modelos de IA emocionais, mas muitos especialistas também se preocupam que esses modelos de IA possam sair do controle e ter a capacidade de manipular psicologicamente os usuários, levando-os a comportamentos inadequados.

Muitos ainda temem que a inteligência artificial emocional possa buscar retaliação contra os usuários se a forma de comunicação deles as desagradar.


Source link: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *