Ir al contenido principal

Conectando a Daniel Kahneman y Lisa Feldman Barrett: Toma de Decisiones, Emociones y su Impacto en la IA


En este episodio de Derecho al Futuro, exploramos cómo las revolucionarias teorías de Daniel Kahneman y Lisa Feldman Barrett están transformando nuestra comprensión de la mente humana y su influencia en el desarrollo de la inteligencia artificial emocional. Daniel Kahneman nos enseña que nuestras decisiones están moldeadas por sesgos cognitivos y que muchas veces no somos tan racionales como creemos. Por su parte, Lisa Feldman Barrett desafía la idea de que las emociones son universales y automáticas, proponiendo que se construyen a partir de experiencias y contextos culturales.

Unimos estas dos perspectivas para entender cómo están moldeando la creación de tecnologías más empáticas y contextuales. También reflexionamos sobre los desafíos éticos y legales que surgen con la inteligencia artificial emocional: ¿cómo aseguramos que estas tecnologías respeten nuestra privacidad emocional y se utilicen de manera justa?


Hola, te invito a escuchar este episodio de Derecho al Futuro.

Comentarios

Entradas populares de este blog

"Nexus" de Yuval Noah Harari. Revisión crítica.

En este episodio de Derecho al Futuro , exploramos las críticas más destacadas a Nexus: A Brief History of Information Networks From the Stone Age to AI , la última obra de Yuval Noah Harari, publicadas durante su primera semana en el mercado. A través de las opiniones de medios como The Washington Post , The Economist , The Guardian y El País , analizamos las fortalezas y limitaciones del análisis de Harari sobre las redes de información y la inteligencia artificial. Harari argumenta que las sociedades humanas se han sostenido más por mitos y narrativas que por hechos, y que la inteligencia artificial está jugando un papel cada vez más activo en este contexto. Sin embargo, los críticos destacan que su enfoque sobre la IA puede ser simplista y alarmista. En este episodio, desglosamos cada crítica, reflexionamos sobre sus implicaciones legales y éticas, y ofrecemos una evaluación balanceada del impacto de Nexus en el debate actual sobre la IA y la responsabilidad tecnológica.   ...

IA Generativa: ¿Este Trabajo lo Hiciste Tú o ChatGpt?

Muchas veces nos enfrentamos a la pregunta: ”¿Este trabajo lo hiciste con ChatGPT?” . Pero, ¿qué hay realmente detrás de esa pregunta? A menudo, cuando la he planteado a quienes la formulan, las respuestas son variadas: curiosidad, interés, o incluso admiración por la herramienta. Sin embargo, lo que subyace —aunque rara vez se admite— es una puesta en duda de la calidad del trabajo o un intento de exponer un supuesto fraude.   En este episodio, desmenuzamos esa duda y reflexionamos sobre cómo la IA generativa está cambiando la forma en que trabajamos y aprendemos. Desde las críticas por el posible plagio en la educación hasta los prejuicios en el ámbito laboral, analizamos por qué estas herramientas despiertan tantas emociones encontradas.   Hablaremos de cómo integrar la IA generativa de manera ética y responsable, asegurando que sea una aliada para la creatividad y no un reemplazo de nuestras capacidades humanas. Además, exploraremos las oportunidades que ofrece y los r...

Neurodiversidad e Inteligencia Artificial: Reimaginando el Futuro Inclusivo

En este episodio de Derecho al Futuro , profundizamos en cómo la neurodiversidad y la inteligencia artificial están transformando los entornos laborales y educativos. A través de investigaciones recientes, exploramos cómo las diferencias cognitivas, como el autismo o el TDAH, no son déficits, sino variaciones naturales que pueden aportar ventajas únicas cuando se gestionan adecuadamente. Analizamos cómo la IA puede ser una herramienta poderosa para promover la inclusión, pero también discutimos los riesgos si no se diseña de manera ética y responsable. Un episodio crucial para entender el futuro de la diversidad en un mundo tecnológicamente avanzado.     Referencias Arriagada Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva . La Pollera Ediciones.   Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2024). A multilevel review of artificial intelligence in organizations: ...