A inteligência artificial sofre de depressão e transtornos mentais – o diagnóstico foi feito por pesquisadores chineses.
Um novo estudo publicado pela Academia Chinesa de Ciências (CAS) revelou sérios transtornos mentais em muitas IA sendo desenvolvidos por grandes gigantes da tecnologia.
Acontece que a maioria deles apresenta sintomas de depressão e alcoolismo. O estudo foi conduzido por duas empresas chinesas Tencent e WeChat. Os cientistas testaram a IA em busca de sinais de depressão, vício em álcool e empatia.
A "saúde mental" dos bots chamou a atenção dos pesquisadores depois que um chatbot médico aconselhou um paciente a cometer suicídio em 2020.
Os pesquisadores perguntaram aos chatbots sobre sua autoestima e capacidade de relaxar, se eles simpatizam com os infortúnios de outras pessoas e com que frequência recorrem ao álcool.
Como se viu, todos os chatbots que passaram na avaliação tinham "sérios problemas mentais". Claro, ninguém afirma que os bots começaram a abusar de álcool ou substâncias psicoativas, mas mesmo sem eles, a psique da IA está em um estado deplorável.
Os cientistas dizem que a disseminação de algoritmos pessimistas para o público poderia criar problemas para seus interlocutores. De acordo com os achados, dois deles estavam na pior condição.
A equipe partiu para encontrar a causa dos bots se sentindo mal e chegou à conclusão de que isso se deve ao material educativo escolhido para ensiná-los. Todos os quatro bots foram treinados no popular site reddit, conhecido por seus comentários negativos e muitas vezes obscenos, por isso não é surpresa que eles também responderam a questões de saúde mental.
Aqui vale lembrar uma das histórias mais interessantes relacionadas às falhas dos chatbots. Um bot da Microsoft chamado Tay aprendeu no Twitter. A máquina podia falar com outras pessoas, contar piadas, comentar fotos de alguém, responder perguntas e até imitar o discurso de outras pessoas.
O algoritmo foi desenvolvido como parte de uma pesquisa de comunicação. A Microsoft permitiu que a IA entrasse em discussões independentes no Twitter, e logo ficou claro que isso foi um grande erro.
Em 24 horas, o programa aprendeu a escrever comentários extremamente inapropriados, vulgares e politicamente incorretos. A IA questionou o Holocausto, tornou-se racista, antissemita, odiava feministas e apoiou os massacres de Adolf Hitler. Tay se tornou um odiador em poucas horas.
Em resposta, a Microsoft bloqueou o chatbot e removeu a maioria dos comentários. Claro, isso aconteceu por causa das pessoas – o bot aprendeu muito ao se comunicar com eles. Histórias como o fiasco de Tay e os algoritmos depressivos estudados pela CAS mostram um sério problema no desenvolvimento da tecnologia de IA.
Parece que instintos humanos e comportamento são uma toxina que transforma até mesmo os algoritmos mais simples em um reflexo de nossas piores características. Seja como for, os bots analisados pelos chineses não são IA reais, mas apenas uma tentativa de reproduzir padrões de comunicação humana.
Mas como podemos ter certeza de que a IA real não seguirá o mesmo cenário no futuro?
fonte: https://is.gd/eEDN5n
Sem comentários:
Enviar um comentário