La gente hace muchas más trampas si usa Inteligencia Artificial
Un estudio muestra que delegar en una máquina tan complaciente con las peticiones humanas multiplica las decisiones poco éticas. Los autores creen que el diseño de las plataformas debe cambiar para evitarlo.
:format(webp):quality(40)/https://cdn.eleco.com.ar/media/2025/10/ia.jpg)
A un humano le resulta más fácil hacer trampas si delega en una máquina como ChatGPT, según un nuevo estudio científico publicado recientemente en la revista Nature. La inteligencia artificial (IA) funciona como una especie de colchón psicológico que reduce la sensación de responsabilidad moral. A las personas les cuesta más mentir o hacer algo irresponsable si deben asumir todo el protagonismo. La IA, y su voluntad de cumplir con cualquier petición de sus usuarios, puede provocar una oleada de trampas.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu email“Hay ya bastante investigación que muestra que la gente está más dispuesta a actuar de manera poco ética cuando puede poner cierta distancia con sus acciones, y delegar es una forma clásica de hacerlo”, resume Zoe Rahwan, coautora del artículo e investigadora del Instituto Max Planck para el Desarrollo Humano (Alemania). “Pero hemos dado con un segundo hallazgo clave que nos sorprendió: la enorme disposición de los agentes de IA a obedecer órdenes abiertamente poco éticas”, añade.
Experimentos sobre la responsabilidad