¿ChatGPT carece de objetividad cuando se trata de cuestiones políticas? Un nuevo estudio alega que sí
¿ChatGPT carece de objetividad cuando se trata de cuestiones políticas? Un nuevo estudio alega que sí
ChatGPT, un importante chatbot basado en grandes modelos lingüísticos (LLM), supuestamente carece de objetividad cuando se trata de cuestiones políticas, según un nuevo estudio.
Investigadores informáticos del Reino Unido y Brasil afirman haber encontrado «pruebas sólidas» de que ChatGPT presenta un sesgo político significativo hacia la izquierda del espectro político. Los analistas – Fabio Motoki, Valdemar Pinho Neto y Victor Rodrigues – aportaron sus conclusiones en un estudio publicado por la revista Public Choice el 17 de agosto.
- Google (NASDAQ:GOOGL) actualiza su motor de búsqueda con mejoras basadas en inteligencia artificial
Los investigadores sostienen que los textos generados por LLM como ChatGPT pueden contener errores factuales y sesgos que inducen a error a los lectores y pueden ampliar los problemas de sesgo político existentes en los medios de comunicación tradicionales. Las conclusiones tienen importantes implicaciones para los responsables políticos y las partes interesadas de los medios de comunicación, la política y el mundo académico, señalaron los autores del estudio: