PLAY PODCASTS
¿A Quién Salvarias?

¿A Quién Salvarias?

La teoria de la mente · Rubencas

October 6, 202517m 56s

Audio is streamed directly from the publisher (ivoox.com) as published in their RSS feed. Play Podcasts does not host this file. Rights-holders can request removal through the copyright & takedown page.

Show Notes

Te dejo aquí el enlace para votar a La Teoria de la Mente para los premios Ivoox: https://go.ivoox.com/wv/premios25?c=4271 ¿Qué haría un coche autónomo si tuviera que decidir entre atropellar a un grupo de personas o sacrificar a sus propios pasajeros? ¿Y si en ese grupo hay un niño, un anciano… o incluso un perro? En este episodio de AMADAG TV, exploramos uno de los dilemas más polémicos y fascinantes de la inteligencia artificial: el experimento Moral Machine del MIT. Una iniciativa que planteó millones de situaciones reales a personas de todo el mundo para descubrir cómo tomamos decisiones éticas cuando se trata de la vida y la muerte. Pero esto va más allá de la tecnología. Hablamos de moral, ética, sesgos, cultura y naturaleza humana. ¿Es lo mismo lo que consideramos “bueno” en España que en Japón o en América Latina? ¿Juzgarías igual a alguien de tu grupo que a un extraño? ¿Y por qué a veces las personas más éticas cometen actos inmorales? En este vídeo descubrirás: Cómo funciona el experimento Moral Machine y por qué sus resultados sorprendieron al mundo Qué decisiones morales tomamos dependiendo de la cultura, la edad o el rol social Qué revelan los monos capuchinos sobre nuestra percepción de la justicia El papel de la obediencia, el anonimato y la presión del grupo en nuestras decisiones Por qué deberíamos desconfiar de nuestra propia moral y apostar por la ética Además, te contamos cómo los sesgos culturales, el favoritismo intragrupo y nuestras emociones pueden distorsionar nuestras decisiones más importantes. Y lo más inquietante: ¿qué pasará cuando esas decisiones las tomen las máquinas? Si crees que tienes una brújula moral clara, este vídeo puede hacerte replantear todo. Porque la moral humana, cuando se mira de cerca… tiene más agujeros que un colador. Prepárate para cuestionarlo todo. Palabras clave (keywords) moral,máquina moral,dilemas éticos,dilema moral,ética,inteligencia artificial,coche autónomo,MIT moral machine,psicología moral,ética aplicada,sesgos morales,ética en tecnología,favoritismo grupal,obediencia a la autoridad,Milgram experimento,efecto espectador,capuchinos moralidad,cultura y moral,valores humanos,dilema del tranvía,ética en IA,comportamiento moral,justicia social,hipocresía moral,La Teoría de la Mente Hashtags #moralmachine, #éticaenIA, #dilemamoral, #psicologíamoral, #inteligenciaartificial, #AMADAGTV Nuestra escuela de ansiedad: www.escuelaansiedad.com Nuestro nuevo libro: www.elmapadelaansiedad.com Visita nuestra página web: http://www.amadag.com Facebook: https://www.facebook.com/Asociacion.Agorafobia/ Instagram: https://www.instagram.com/amadag.psico/ ▶️ YouTube Amadag TV: https://www.youtube.com/channel/UC22fPGPhEhgiXCM7PGl68rw