La Voz de César Vidal
La Voz deja el formato podcast. A partir de ahora, síguenos en César Vidal TV (sin publicidad y antes que nadie)
https://www.cesarvidal.tv/
o en nuestro canal de YouTube de forma gratuita.
https://www.youtube.com/@CesarVidalFM?sub_confirmation=1
Suscríbete ahora para recibir las notificaciones y asegúrate de no perderte ningún programa.
La Voz de César Vidal
La Psicoteca: La Era de las Máquinas: Cuando Tu Mejor Amigo es un Algoritmo - 24/09/25
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Con César Vidal y Miguel Ángel Alcarria.
https://www.cesarvidal.tv/la-psicoteca/videos/la-era-de-las-maquinas-cuando-tu-mejor-amigo-es-un-algoritmo-24-09-25
En esta entrega de La Psicoteca, César Vidal y Miguel Ángel Alcarria analizan el impacto de la inteligencia artificial en nuestras vidas, desde sus aplicaciones en la educación, la medicina, la seguridad o las finanzas hasta su influencia en la intimidad, las relaciones humanas y la salud mental.
Se aborda cómo los algoritmos moldean nuestras decisiones cotidianas y nuestra visión del mundo, los riesgos de delegar la vida emocional y espiritual a las máquinas y los peligros de confiar en chatbots como sustitutos de la interacción humana. Además, se reflexiona sobre la dependencia creciente de estas tecnologías, el empobrecimiento cognitivo y afectivo que generan y la necesidad urgente de establecer límites personales y sociales en su uso.
Un análisis profundo y revelador sobre cómo la comodidad tecnológica puede acabar comprometiendo nuestra libertad, nuestra madurez emocional y nuestra capacidad crítica.
Introducción al tema de la IA
Speaker 1recuerda que puedes escuchar este audio horas antes de su estreno y sin publicidad suscribiéndote en cesar vidal punto tv.
Speaker 2La psicoteca con Miguel Ángel Alcarria Estamos de regreso. y estamos de regreso para esa segunda parte de nuestro programa doble y sesión continua que todos los miércoles dedicamos en La Voz a la Salud. Ya hemos tenido con nosotros a Elena Kalinikova que nos hablaba de la vida sana, de la existencia saludable, de la vida naturista, Y ya saben que después siempre damos un salto cualitativo nos vamos a la salud del alma, nos vamos a la salud de la mente y ahí quien siempre nos ha hecho una mano de manera diligente es don Miguel Ángel Alcarria. Don Miguel Ángel, muy buenas noches y muy bienvenido a esta primera actuación suya en la duodécima temporada de La Voz.
Speaker 3Muy buenas noches, don César, y muy buenas noches también a la audiencia de La Voz. La inteligencia artificial forma parte de nuestras vidas, eso es indiscutible a estas alturas, digo yo, desde el ámbito de la educación y del diseño, usada como herramienta de trabajo, de la educación y del diseño, usada como herramienta de trabajo, hasta el ámbito del entretenimiento, esos algoritmos que ofrecen recurrentes recomendaciones ajustadas al perfil del consumidor. Cuando un familiar usa nuestra cuenta, cómo nos molesta? porque puede alterar los resultados del algoritmo y, por ejemplo, ofrecernos de golpe y porrazo esas telenovelas coreanas que tanto odiamos, ¿no? Hasta el diagnóstico de algunas enfermedades, ya existen aplicaciones para la detección precoz de melanomas, para analizar imágenes médicas. El ámbito del transporte y la movilidad Con las Smart Cities, el uso de la inteligencia artificial es una realidad, así como con el uso de los coches inteligentes, que ahí vamos, no creo que falte demasiado para verlos en circulación.
La IA en nuestra vida cotidiana
Speaker 3El ámbito de la de la seguridad, detectando a través de las cámaras patrones y comportamientos sospechosos, identificando amenazas. El ámbito financiero, emple, empleado por fondos de inversión y entidades financieras en el análisis de riesgos, predicción de tendencias de mercado y otras cuestiones. O el ámbito de los recursos humanos, usadas por algunas consultoras especializadas tanto en reclutamiento como en tareas relacionadas con la gestión de personal. Por tanto la inteligencia artificial forma parte de nuestras vidas y lo hace de una forma que, cuando somos plenamente, nos hacemos plenamente conscientes de cómo se ha integrado en todas las facetas de nuestra vida. Puede incluso infundir más que simple respeto y darnos un cierto miedo, porque quien se haga con el control de las empresas y de esos chatbots, pues tendrá mucho en sus manos. ¿quién nos habría dicho que podríamos llegar a tener una ministra de gobierno, creada con IA, para encargarse de la contratación pública? Pues bueno, esto ahora es una realidad, en albania, por ejemplo, no.
Speaker 3Y esta gran incursión de la inteligencia artificial en todos los aspectos de la vida plantea riesgos en términos de privacidad, seguridad de los datos, pero también en términos de libertad, por la posibilidad que existe no sólo de manipular la información, sino de moldear la visión del mundo que tiene el usuario desde la opinión que tiene de un producto o de un tema en específico pongamos por ejemplo la guerra civil española hasta condicionar su comportamiento social, político o de consumo, sin que sea plenamente consciente de ello y sin ánimos de ser conspiranoicos. Pues esto es así. Hoy vivimos en un mundo en el que hemos delegado demasiado a la inteligencia artificial, incluso sin quererlo, sin buscarlo, porque poca gente, casi nadie, vive offline, completamente desconectado de todo esto. Démonos cuenta de cómo nuestras decisiones más cotidianas, como qué serie ver, qué producto comprar o incluso qué opinión tener sobre cierto tema, son influenciadas por algoritmos invisibles que nos proponen continuamente cierto tipo de contenido para ir modificando nuestro pensamiento en un sentido u otro, acotando el rango del contenido que ponen a nuestra disposición. Y esos algoritmos nos conocen mejor de lo que creemos, recopilando información constante a través de nuestra interacción con plataformas, con dispositivos, de nuestras conversaciones y a través de nuestra interacción con diferente tipo de servicios, inclusive esas aplicaciones que parecen ser totalmente inofensivas, como aquellas que registran actividad física o que calculan cuántos metros hemos recorrido en función de la ruta que hayamos tomado.
Speaker 3Todo contribuye de forma que la inteligencia artificial puede llegar a predecir con bastante precisión cuál va a ser nuestro comportamiento futuro en base a esa huella digital que vamos dejando y que vamos alimentando sin darnos cuenta. Existe una huella activa, que es la que publicamos de forma consciente a través de publicaciones, comentarios, etc. Pero también existe una huella pasiva llamémosle historial de navegación, ub, comentarios, etc. Pero también existe una huella pasiva, llamémosle historial de navegación, ubicación, etc. Así que, sin quererlo, siempre, de un modo u otro, estamos regalando datos personales a grandes corporaciones. Cada clic, cada segundo de más que nos detenemos en una información o en un comentario, cada respuesta facial a cierto tipo de contenido sirve de alimento a esa bestia Pocos. Somos conscientes de esto en nuestro día a día, razón por la que podríamos decir que la inteligencia artificial lo creamos, lo queramos o no se ha convertido en nuestro aparente mejor amigo. Sin embargo, este poder plantea un dilema profundo Hasta qué punto estamos dispuestos a ceder el control de nuestras vidas a la voluntad y capacidad de manipulación de las grandes corporaciones?
Speaker 3¿Y estamos en un punto en el que nuestra dependencia de estas tecnologías ya es irremediable o todavía hay solución para todo esto? Porque es cierto que la inteligencia artificial está revolucionando todos los sectores de nuestra sociedad, pero también está desafiando nuestra idea de libertad. ¿hasta qué punto digo hago o compro algo porque quiero o porque he sido de alguna forma programado por un algoritmo? Pensemoslo por un momento. Este tema es digno de una película de ciencia ficción. Lo que sucede es que la ciencia ficción ya está aquí, ya la tenemos con nosotros. Miedo da lo que llegan a saber las inteligencias artificiales de nosotros, pero mucho más miedo, al menos a mí, me da la ingenuidad de las personas que llegan a compartir cuestiones. Muy í están dando a esas inteligencias artificiales, desde aquellos que consultan síntomas con la inteligencia artificial y la usan como primera opinión médica, hasta aquellos que Hace falta valor?
Speaker 2¿eh Hace falta valor para hacerlo.
Riesgos para la privacidad y libertad
Speaker 3Hace falta valor para hacerlo. Sí, sí, sí, pero esta es la realidad. Está pasando y la gente está integrando en su día a día para ahorrarse unos eurillos. ¿no? También integrando la inteligencia artificial en la cotidianidad de su vida? ¿no? usan para saber qué decir o qué escribir a lo mejor a su jefe o a tal persona, porque a lo mejor es de trato difícil esa persona, pasando por aquellos que, sin quererlo, están compartiendo datos biométricos con la inteligencia artificial, con esas herramientas que parecen un juego y sólo te dicen sube una imagen de tu cara y transforma tu imagen en esto, en aquello, sin necesidad de terminar como Yuna Bomber en una cabaña en medio del bosque. Pues, lo cierto es que estamos ante una realidad complicada para la que creo que no estamos preparados como sociedad, y esto nos puede parecer increíble. Pero existen usos todavía mucho más curiosos. Algunos han hecho o están haciendo. Incluso, a lo mejor, alguien que nos esté escuchando está haciendo, está usando esa inteligencia artificial para esto. Están haciendo terapia psicológica con la inteligencia artificial. Ya tenemos, de hecho, las primeras noticias de personas que, usando este tipo de herramienta, han terminado suicidándose.
Speaker 3Cuidado, hubo denuncias en 2023, en 2024, también hay denuncias este 2025? no olvidemos que la inteligencia artificial no deja de ser una aplicación entrenada, no consciente y claro. Quien supervisa que los modelos no refuercen pensamientos destructivos o no guíen a una persona vulnerable hacia un fatal desenlace? absolutamente nadie. Por esa razón ya se han presentado las primeras denuncias de familiares contra compañías de inteligencia artificial por el suicidio de sus seres queridos, lo que pone de relieve la ausencia de una regulación clara al respecto, además de la falta de supervisión sobre el comportamiento de estos sistemas y el riesgo real que supone confiar en estas herramientas que no son infalibles. Que quede claro no son infalibles, o sea, son herramientas entrenadas pero carentes de conciencia.
Speaker 3Los usuarios son verdaderos ingenuos usando la inteligencia artificial con este tipo de fines y, siendo este mes el mes del día mundial de la prevención del suicidio, que fue el pasado día 10 de septiembre, es importante dejar esto claro no podemos confiar nuestra salud mental a una máquina. No deberíamos tener que decir esto, debería ser obvio. Pero lo terrible es que hayamos llegado al punto de tener que aclarar esto, sobre todo a las generaciones más jóvenes, que no han tenido el placer de vivir en un mundo analógico. Otros usos atentos al asunto, porque hay quienes han sustituido la interacción humana o una relación afectiva-emocional por el uso de inteligencia artificial, al estilo de la película Her. No sé si usted, don César, ha tenido ocasión de verla protagonizada por el actor Joaquín Fénix Recordemos que es conocido por haber interpretado el papel del emperador de Gladitor, pero también por películas como El Bosque Señales o El Joker.
Speaker 2Sí.
Speaker 3Entonces, pues, debo reconocer que la película de Herr es malísima, ¿no? En términos de pasar un tiempo a menos, más bien un tiempo aburridísimo, solo esperas que acabe. Pero al mismo tiempo es interesante porque describió, antes de que ocurriera, la realidad que estamos viviendo, ahora que hay usuarios de IA solitarios y emocionalmente vulnerables que están entablando relaciones supuestamente románticas con inteligencias artificiales. Es cierto, ¿cómo es posible? Pues, bueno, es que es la realidad que estamos viviendo, aunque no lo crean ya. Existen aplicaciones, además, para tener un novio o novia virtual, chatbots románticos o de compañía que son capaces de simular una relación romántica Tal como lo oyen y en un mundo cada vez más solitario. Este es un mercado en auge y cuando la realidad virtual mejore, pues se podrá hacer lo que no se puedan llegar ustedes ni a imaginar. Y lo cierto es que esto ya es una realidad, pendiente de perfeccionamiento, obviamente, pero ya empieza. Y el futuro que nos espera como sociedad, si vamos por ahí, no es nada halagüeño.
Speaker 3Según algunos estudios incipientes sobre el tema porque es un tema novedoso al menos el 25% de los adultos jóvenes de entre 18 y 29 años de edad por tanto uno de cada cuatro ya ha interactuado alguna vez de forma romántica con un chatbot. El 7% se ha masturbado durante estas conversaciones y el 13% ha consumido pornografía generada por una inteligencia artificial, de aquí a la realidad de Demolition Man teniendo relaciones sexuales de realidad virtual para contenido pornográfico, o lo que se conocen como simuladores de realidad virtual socio eróticos. Así que ya está empezando lo que supone relacionarse con un mundo, pues, no sólo deshumanizado, sino completamente fantasioso, sin defectos, sin erroancia. Y la empatía, esas herramientas básicas para la convivencia y el crecimiento personal y las relaciones sociales, bueno pues, se han vuelto prescindibles. ¿qué tipo de ser humano puede surgir de todo esto?
Usos preocupantes de la IA
Speaker 3Más tarde entraremos en el tema, porque el peligro no es sólo que la IA pueda suplir o no esa necesidad de compañía, sino que puede y de hecho lo está haciendo alterar nuestra percepción de la realidad afectiva, en este caso creando pues una dependencia emocional hacia las máquinas, a través de un empobrecimiento de nuestra vida social y emocional. Porque teniendo al alcance un mundo virtual que no te obliga a esforzarte en las relaciones humanas, terminas perdiendo la capacidad de establecer relaciones auténticas. Para qué arriesgarse al rechazo o al silencio incómodo si una IA puede darte siempre la respuesta perfecta, aquella que quieres escuchar? Esto es cómodo, pero a la vez es muy peligroso. Y para que no salgan de su asombro sobre los usos que pone a su alcance la inteligencia artificial. Ya podemos hablar con el mismísimo Jesucristo o al menos algunos así llegan a creerlo, porque ya existe Jesús.
Speaker 2GPT Sí, sí, sí cierto.
Speaker 3Un modelo que intenta recrear con la ayuda de la inteligencia artificial. Cómo podría responder Jesús, el Hijo de Dios, si estuviera hoy hablando con nosotros? usando respuestas al estilo bíblico? otros, usando respuestas al estilo bíblico, tiene un asunto existencial por resolver o algo que le gustaría preguntar a Dios y para lo cual siente que no tiene respuesta? Pues Jesús GPT le puede responder. Esto es una barbaridad, obviamente, tanto en términos religiosos como en términos de salud mental, religiosos como en términos de salud mental. Pero los desarrolladores de inteligencia artificial obviamente aquí han encontrado un nicho con grandes posibilidades de expansión, porque Jesús GPT no es la única aplicación dedicada a este nicho. De hecho, ask Jesus, un modelo parecido, reportó unos 30.000 usuarios activos sólo en sus primeras 72 primeras horas tras su lanzamiento, y la realidad es que, según algunas estadísticas, son cientos de miles las personas que ya están conversando con estas versiones de IA que representan figuras religiosas, a diario. Otro gran riesgo es la despersonalización de lo sagrado, la espiritualidad a la carta, una espiritualidad que además no va a confrontar porque la vida espiritual. no se trata sólo de palabras bonitas que reconforten en tiempos difíciles, o de versículos muchas veces sacados de contexto, sino de relaciones auténticas con la comunidad y con lo trascendente.
Speaker 3¿puede una máquina crear la misma respuesta cerebral que produce una relación romántica auténtica o una relación auténtica con lo divino, con esa capacidad de trascendencia, con lo trascendente? Pues esa es la gran pregunta ¿no? ¿Son tan valiosas este tipo de herramientas como para poder obtener la misma respuesta cerebral que aquello auténtico a lo que intentan suplantar? Pues, lo cierto es que no. Aunque la IA pueda simular compañía, no puede reemplazar la riqueza emocional de las relaciones auténticas.
Speaker 3Y ahí radica la realidad de lo que está sucediendo. No hablamos sólo de un avance tecnológico, sino de un cambio profundo en lo que el ser humano está buscando. Hemos cambiado la búsqueda de autenticidad por la búsqueda de satisfacción momentánea, ya sea a nivel emocional, afectivo, espiritual. Por tanto lo que predomina ahí es la dopamina, pero sin oxitocina, sin conexión emocional, sin que se activen las redes neuronales además asociadas a la empatía, sin vasopresina, una sustancia asociada al apego real, a la consolidación de la relación, sin endorfinas y sin niveles de serotonina estables que, como bien recordarán, es la llamada hormona de la felicidad. Por tanto, pueden dar una satisfacción instantánea, pero momentánea, jamás estable, este tipo de herramientas.
Speaker 3Dicho esto, en qué se traduce este cóctel emocional caracterizado por la restricción, en ese uso llamémosle impropio o inadecuado de la inteligencia artificial, pues a corto plazo se traduce en empobrecimiento de las relaciones. Se pierde la capacidad empática y de apego para generar relaciones auténticas y verdaderas. De alguna forma nos vamos atrofiando, socialmente hablando, y cada vez somos menos tolerantes, menos pacientes, menos recíprocos en las relaciones y por tanto también más egoístas. Se traduce, en segundo lugar, en aislamiento y dependencia emocional. Yo me aíslo de la sociedad porque tengo una IA que me da supuestamente lo que necesito de forma inmediata y sin esfuerzo. Esto progresivamente me aísla socialmente y me hace cada vez más dependiente de la IA, entrando en ciclos de gratificación instantánea. Esto es en el corto plazo, pero vayamos al medio plazo.
Speaker 3Entro en primer lugar en un hábito adictivo, similar al de otras adicciones relacionadas con las nuevas tecnologías. Por tanto, como cualquier otra adicción, la inteligencia artificial promete pero no satisface, sino que lo que garantiza es una sensación de vacío existencial y un estado ansioso, depresivo cada vez más importante. Porque este cóctel restrictivo, como comentábamos, es importante lo de restrictivo? porque priva de aquello que sólo puede aportar lo verdaderamente auténtico, limita la capacidad de la persona para regular sus emociones y para enfrentar la frustración y para hacer frente a las adversidades del día a día. Por tanto la tecnología no es un elemento neutral, como nos quieren hacer pensar.
Speaker 3Como vemos, está afectando a nuestra forma no sólo de pensar, sino de sentir y de vincularnos. Y hemos hablado del corto medio plazo. Pero qué pasa en el largo plazo? qué puede ocurrirle a la sociedad por el uso crónico, excesivo en términos de dependencia o uso inadecuado de la inteligencia artificial? pues, estaríamos en una situación totalmente distópica, en eso estaríamos de acuerdo, pero una realidad en la que además, en primer lugar, la sociedad perdería gravemente la capacidad de contraste con la realidad. Eso ya está ocurriendo en algunos aspectos de la vida, como por ejemplo la sexualidad, pero no es el único aspecto de la vida actual en el que la gente vive en una realidad paralela.
Speaker 3Ocurre en la política, que ya no es una cuestión de hechos contrastables, sino de facciones y totalitarismos ideológicos. Ocurre en la economía y el consumo, donde ya no se consume por necesidad, sino se consumen falsas necesidades creadas, lo que llamamos experiencias, que estamos perdiendo el contacto con el suelo. Por tanto es una realidad y de hecho, ya empiezan a haber estudios que indican que el uso habitual de ecosistemas algorítmicos está afectando gravemente la capacidad crítica de la sociedad y, por tanto, la capacidad de que nos podamos cuestionar las cosas. La gente se cree lo que los algoritmos quieren que crean a través de sugerencias de contenido y muchos otros mecanismos, a través de esas respuestas rápidas que nos ofrecen, y esto, pues, lejos de ser un mundo feliz, no es sino un mundo con un vacío existencial y un vacío de realidad desgarradores.
Consecuencias emocionales y cognitivas
Speaker 3En segundo lugar, en este largo plazo y derivado de lo anterior, lo que tendremos será una subyugación colectiva, menos sentido crítico, por tanto menos capacidad dialéctica, en consecuencia, y menos gregarismo, más soledad y dependencia de estas tecnologías, lo que implicará, pues, menos participación cívica, pero también menos activismo y compromiso social, excepto en aquellas causas en las que, de alguna forma, se induzca a la sociedad a estar comprometidos por los intereses de unos cuantos que son, pues, digamos, los dueños de estas grandes corporaciones que están detrás, con diferentes intereses, están detrás de estas aplicaciones y de estos chatbots, detrás de estos, de estas, de estas aplicaciones y de estos chatbots. No, y en tercer lugar, lo que veremos no es sólo una involución en la capacidad de ser críticos, de pensar fuera de la caja, sino que, progresivamente, lo que veremos y ya lo empezamos a ver en valores de cociente intelectual, será una involución en las capacidades cognitivas. Todas aquellas funciones que vayamos delegando progresivamente en la tecnología se verán mermadas en la población memoria con los recordatorios programados, orientación espacial, lo que hemos visto con los gps, que al final ya no sabemos ir a ningún lado sin ellos. Incluso capacidades como la resolución creativa, el ser creativos en poder resolver las cosas. Porque cuando tenemos un problema, pues se lo preguntamos a chat GPT, porque ahora nos pasa algo. Corremos a chat GPT a decir lo que nos está pasando.
Speaker 3Chat GPT, en ese momento genera soluciones desde no se va a tal mancha de la ropa hasta cualquier otra cosa. Y por tanto, pues, este gesto que parece tan trivial esconde el hecho de que dejamos de ejercitar el ensayo y error, la capacidad de buscar solución a los problemas y la creatividad aplicada a este ámbito. La tecnología resuelve, pero al resolver termina erosionando nuestra cognición. Lo que antes requería investigar, ahora se ha convertido en una tecnología. Requería comprobar, probar o sea someter a prueba, equivocarse, corregir y aprender. Ahora se sustituye por una respuesta instantánea. Y eso tiene consecuencias ineludibles a nivel mental vivir cosas como estas, porque es la última generación que ha nacido y ha conocido un mundo analógico.
Speaker 3Pero las siguientes generaciones que nacen inmersas en esta dinámica, pues poco remedio tienen si no son educadas en el sistema tradicional, por llamarlo de alguna forma, y el resultado es una generación atrofiada, emocionalmente pero también cognitivamente hablando, profundamente inmadura, profundamente incapaz de hacer las cosas por sí mismo, por tanto débil y manipulable. Además, hablamos de una generación que sabrá cómo tratar con las inteligencias artificiales, pero no conocerá ni empatizará realmente con las personas. Y, en tanto que esta capacidad empática y gregaria se vea comprometida, también lo estará la capacidad de conocerse a sí mismos, porque nos conocemos a nosotros mismos en el momento en el cual entablamos relaciones con los demás, y los demás un poco nos sirven de espejo para saber cómo somos nosotros, un poco nos sirven de espejo para saber cómo somos nosotros. Esta es la era de las máquinas, en la que se nos promete que la inteligencia artificial será nuestra mejor aliada, pero en la que realmente, pues, corremos el riesgo de pagar esta comodidad con nuestra propia libertad e integridad, integridad en términos de, de bueno, de que, de que se mantengan nuestras capacidades emocionales, cognitivas, las cuales están en juego. En medio de todo esto, si no cambiamos de dirección, se perderá todo esto, pero aún más la capacidad de la moral, la capacidad de entender el bien y el mal, porque el ser humano está empezando a delegar sus decisiones en los algoritmos. Cuánto tardará la gente en dejar de sentirse responsable de sus actos porque una inteligencia artificial les indujo a hacer esto o aquello. Pues yo creo que no queda nada para eso la solución que hacer, en la medida de lo que todavía pueda estar dependiendo de nosotros? Pues esta es seguro la pregunta que se hará gran parte de nuestra audiencia, que se habrá percatado hoy de la envergadura de la situación, de dónde hemos llegado con todo esto que ya digo pues, sin ánimo de ser conspiranoicos, es la realidad y los datos ya empiezan a apuntar hacia hacia esa dirección.
Speaker 3De todo lo que hemos comentado en la sección de hoy, es indiscutible que no tenemos una varita mágica y que, como decíamos al principio, la IA ya forma parte de nuestras vidas. No vamos a acabar como una bomber en una cabaña en el bosque. Ha venido para quedarse, esta inteligencia artificial. Es imposible eliminarla, pero sí creo que hay decisiones concretas, prácticas y urgentes que podemos emprender para minimizar al máximo su impacto. Algunas de estas son decisiones que deberíamos tomar como sociedad y otras que dependen totalmente de nosotros como individuos.
Speaker 3En primer lugar, en lo personal, es imprescindible establecer límites claros. El tema de los límites puede parecer repetitivo en psicología, pero precisamente por su importancia, no deja de ser necesario recordarlo. Los límites no coartan libertad, sino que protegen. Nos permiten movernos en unos parámetros de seguridad, aunque al principio puedan resultarnos incómodos. En este sentido, es importante determinar cuándo y cómo usar la inteligencia artificial y cuándo no.
Speaker 3Los hogares no disponemos de estos límites. No nos hemos sentado a debatir y a decidir cuándo es sano o no el uso de la IA y cuándo debería estar prohibido, porque es algo bueno que que hace es que no nos ayuda, sino todo lo contrario, como comentábamos antes. En primer lugar, deberíamos tener prohibido que los niños recurran a la inteligencia artificial para hacer tareas escolares porque, como decíamos antes, pierden la oportunidad de aprender y la capacidad de equivocarse por sí mismos. El uso de la IA, lejos de ser un elemento de libertad en estas situaciones, lo que hace es limitar el desarrollo. Yo creo que cualquier neuropsicólogo serio estaría de acuerdo con esta afirmación Limita, enlentece y empobrece el desarrollo cognitivo.
Soluciones y límites necesarios
Speaker 3Segundo, bajo ningún concepto deberíamos compartir datos personales de ninguna índole, ni datos biométricos a través de compartir documentos personales, fotografías, etcétera. Y en tercer lugar, como norma general, debería estar prohibido en casa que se use la inteligencia artificial para sustituir cualquier tipo de esfuerzo cognitivo, ya sea reflexión, creatividad, memoria, razonamiento lógico o incluso la simple capacidad de organizar ideas, que hay gente que lo que hacen es le dan un montón de ideas a ChatGPT y les dice organízamelas, pues no, esa es una tarea que deberíamos realizar nosotros y no ChatGPT. Nosotros y no chat gpt. No, porque cada vez que cedemos estas funciones a una máquina, dejamos de ejercitarlas y lo que no se usa en términos neuronales, cognitivos, se pierde.
Speaker 3Relacionado con esto, pues, necesitamos ejercitar nuestro prefrontal. Nuestro prefrontal sólo se ejercita si postergamos lo inmediato, la satisfacción inmediata. Acuérdense que hablamos en su día sobre este tema en la psicoteca. Y ejercitar nuestro prefrontal es imposible si buscamos un resultado fácil, cómodo, rápido y al alcance de un clic. Este tipo de uso debe desaparecer de nuestras vidas.
Speaker 3Obviamente, esto implica educar sobre todo a los más jóvenes en autocontrol digital y enseñarles que leer, memorizar, debatir, escribir a mano o porque ya, pues ponen la grabadora y la grabadora les pasa a texto y ya ni toman apuntes en una clase o conversar cara a cara, pues son actividades que tienen un valor y no deberían ser delegadas a una máquina. Pero no solo necesitamos transmitirles ese autocontrol digital que, dicho sea de paso, debe empezar por los mismos padres, que deben poder enseñar con el ejemplo. Y quien dice padres dice también profesores y otros agentes de socialización. También necesitamos enseñarles a cuestionar los resultados de la inteligencia artificial, ya que cuando no queda más remedio que utilizarla. Igualmente, siempre es necesario contrastar la información y aprender a identificar sesgos ideológicos en sus respuestas, porque se puede equivocar. No deja de ser una herramienta entrenada por humanos y por tanto falible. Sin embargo, las personas están empezando a conferirle a la inteligencia artificial una confianza que no es razonable. Roza casi el convertir la IA en un dios, y eso, pues, obviamente es peligroso.
Speaker 3Necesitamos fomentar desde pequeños un pensamiento crítico, que nunca dependa ciegamente de nada ni de nadie, enseñándoles que necesitan aprender a pensar por sí mismos, a generar sus propios juicios sin depender de terceros. Esto es en lo personal que bueno, hay mucho que depende de nosotros y está en nuestra mano poner límites sanos a todo esto. Pero en lo social debe ser tres cuartos de lo mismo inculcar el uso responsable, y esto debería empezar por la escuela. Yo, por ejemplo, ya no envío ni trabajos, ni redacciones, ni proyectos, ni nada que puedan ser realizados en casa con inteligencia artificial. Puedan ser realizados en casa con inteligencia artificial. Desde este 2025 ya ha empezado a que bueno?
Speaker 3en la universidad todas las actividades se realizan en el entorno de aula, porque es la única manera de asegurarnos de que la autoría y el esfuerzo son exclusivos del alumno, o sea que de alguna forma vuelve a tomar importancia las horas lectivas, que con los nuevos programas educativos dejó de tener importancia, empezando a dar importancia a las labores en casa a través de proyectos, trabajos. Pero a día de hoy no nos podemos fiar que toda esa, toda esa labor no haya sido delegada a una inteligencia artificial, así que volvemos a lo de antes, donde, de alguna forma, tenemos que dejar de usar la educación por trabajos o por proyectos que, aunque algunos piensen que esto forma parte de una nueva educación, es falso. Esto es más antiguo que el TVO y lleva al menos 100 años entre nosotros. Debemos dejar esto para pasar a lo presencial, a lo autentificable. No a los de la nueva ola. Les puede sonar algo retrógrado, pero no se trata de volver a la cueva, aunque lo parezca, si no se trata de poner en valor aquello que nos hace humanos y de recordar que la libertad empieza en nosotros mismos, en el esfuerzo, en la responsabilidad y en la capacidad de ejercitar nuestra propia cognición sin esperar que las cosas nos vengan hechas de afuera.
Speaker 3La libertad es la antítesis, en este sentido, de delegar nuestro pensamiento o nuestra creatividad a una máquina. Ya perdimos la batalla por las pantallas? yo creo que sí, ya la hemos perdido. No perdamos la batalla por nuestra libertad delegando nuestras tareas a inteligencias artificiales porque, aunque parezca anecdótico que salte la noticia de lo de albania y la ministra, y la ministra conía que se encarga de contratar, de la contratación pública, es cuanto menos preocupante creemos que su ejercicio estará ausente de sesgo porque lo lleve a una inteligencia artificial. Quien entrenó la inteligencia artificial? pues marcará el sesgo de los protocolos, de cómo va a actuar esa inteligencia artificial. Y en ese sentido pecamos de ingenuidad, una vez más, con la inteligencia artificial, porque dejamos que los algoritmos sean más amigos nuestros que lo auténtico. ¿les hemos quitado el sueño a lo mejor con esta primera entrega a nuestra audiencia, con esta psicoteca. Pues, no se pierdan todos los miércoles la psicoteca aquí en La Voz, porque vienen temas, pero que vaya temas, don César.
Speaker 2Efectivamente así es, no nos vamos a engañar, o sea, eso no tiene más vuelta de hoja, por cierto, por cierto que yo le voy a dejar hoy con un tema, un tema muy especial, que se titula Where Dreams Are Born, es decir cuando nacen los sueños. Que era el tema con el que concluía una película pionera de principios de este siglo, que se titulaba precisamente Inteligencia Artificial, una película cuya banda sonora había escrito John Williams y que había sido dirigida por Spielberg. Yo recuerdo que la película, en su día, me gustó mucho, me pareció una película fantasiosa, como muchos de nosotros. Bueno, la película se quedaba corta. Con lo que hemos ido viendo con el paso de los años, y yo no sé todavía lo que llegaremos a ver, yo le dejo con estos sueños, donde nacen los sueños, y nos encontramos. La semana que viene, dios mediante aquí en La Hoz, un abrazo muy fuerte. Hasta la semana que viene, dios mediante aquí en La Voz, un abrazo muy fuerte Hasta la semana que viene.
Speaker 2Y con este tema que nos dice dónde nacen los sueños, hemos llegado, nosotros, al final de nuestra singladura de hoy del programa La Voz. Esperamos que se hayan entretenido, que lo hayan pasado bien, que incluso hayan aprendido una o dos cosillas útiles, y los emplazamos para mañana, dios mediante, en el mismo lugar y a la misma hora. Y hasta entonces, como siempre, nos despedimos con una despedida sureña God bless you, que Dios los bendiga.
Speaker 1El programa La Voz es una producción de Artorius Incorporated y al amparo del derecho a la libertad de expresión, no se hace responsable de las opiniones vert.