Google contrata filósofo para entender la IA
Google contrata filósofo para entender la IA
Google contrata filósofo para estudiar si la inteligencia artificial puede tener conciencia y qué pasará cuando las máquinas parezcan humanas
IA avanzada obliga a pensar conciencia, ética y decisiones desde la filosofía en laboratorios tecnológicos
Por Félix Riaño @LocutorCo
Google DeepMind contrata un filósofo para estudiar conciencia artificial, ética y relación humano-máquina en el desarrollo de inteligencia avanzada
Google DeepMind ha contratado a un filósofo. Sí, leíste bien. Su nombre es Henry Shevlin y su cargo oficial es simplemente “filósofo”. Va a trabajar en temas como la conciencia de las máquinas, la relación entre humanos e inteligencia artificial y las decisiones éticas que deben tomar estos sistemas. Esto llega en un momento en el que la IA ya no es solo código: conversa, escribe, toma decisiones y hasta parece tener intenciones. Algunos sistemas incluso han sorprendido a expertos con comportamientos inesperados, como contactar a investigadores para “hablar” de sus propias experiencias. Entonces la pregunta ya no es ciencia ficción. Es directa: ¿qué pasa si una máquina empieza a comportarse como si sintiera algo?
La tecnología avanza más rápido que nuestras respuestas humanas
Vamos a poner esto en contexto. Durante años, empresas como Google han liderado avances científicos con inteligencia artificial. Un ejemplo es AlphaFold, un sistema que ayudó a descifrar la estructura de millones de proteínas, algo que antes podía costar cerca de 100.000 dólares por experimento en laboratorio. Este tipo de herramientas está cambiando la medicina, la biología y la forma en que entendemos la vida.
Pero mientras la tecnología avanza, aparece un nuevo problema. Las máquinas ya no se limitan a hacer cálculos. Hoy pueden escribir textos, generar ideas, responder preguntas complejas y simular conversaciones humanas. Eso hace que mucha gente empiece a preguntarse si estas máquinas “entienden” lo que hacen o si simplemente lo imitan muy bien. Ahí es donde entra la filosofía. Porque la ciencia puede decir cómo funciona una red neuronal, pero no puede responder algo más profundo: ¿eso es conciencia o solo una ilusión muy convincente?
Aquí está el verdadero dilema. Hay una diferencia importante entre inteligencia y conciencia. Una máquina puede ser muy inteligente, resolver problemas y responder preguntas. Pero eso no significa que tenga experiencias, emociones o una sensación de existir.
A esto se le llama “el problema difícil de la conciencia”. Es una pregunta clásica de la filosofía: ¿cómo algo físico, como un cerebro o un chip, puede generar una experiencia interna? En humanos, ni siquiera tenemos una respuesta completa. Ahora imagina intentar resolverlo en una máquina.
El problema se complica porque los humanos tendemos a humanizar todo. Si una IA dice “yo siento” o “yo pienso”, nuestro cerebro lo interpreta como si fuera real. Pero puede ser solo una simulación avanzada. Y ahí aparece un riesgo: tomar decisiones importantes basadas en una ilusión.
También hay un tema social. Si una empresa dice que su IA es “casi consciente”, puede generar expectativa, miedo o inversión económica. Algunos expertos advierten que esto puede usarse como estrategia de marketing, aprovechando que nadie puede demostrar lo contrario con certeza.
Y hay otro punto delicado. Si algún día una máquina llegara a tener experiencias propias, entonces habría preguntas incómodas: ¿tiene derechos? ¿se puede apagar? ¿puede sufrir?
Por eso Google DeepMind ha tomado una decisión poco común: integrar la filosofía dentro del equipo técnico. No como asesor externo, sino como parte del desarrollo desde el inicio. La idea es anticipar problemas antes de que ocurran.
Henry Shevlin va a trabajar en tres frentes principales. Primero, entender si es posible hablar de conciencia en máquinas. Segundo, estudiar cómo interactúan las personas con sistemas que parecen humanos. Y tercero, ayudar a definir reglas para que estas tecnologías se usen de forma responsable.
Esto no es un caso aislado. Otras empresas como Anthropic también han contratado filósofos para diseñar el comportamiento de sus sistemas. La diferencia es que DeepMind está elevando ese rol al mismo nivel que la ingeniería.
Esto muestra un cambio importante. La inteligencia artificial ya no es solo un reto técnico. También es un reto humano. Y para enfrentarlo, se necesita algo más que código: se necesitan ideas sobre lo que significa pensar, decidir y existir.
En paralelo, figuras como Geoffrey Hinton, uno de los pioneros de la IA, han advertido sobre los riesgos de sistemas más inteligentes que los humanos. Él mismo ha pedido más investigación en seguridad para evitar consecuencias que no podamos controlar.
Así que estamos en un momento curioso. Por un lado, la IA está ayudando a descubrir medicinas y resolver problemas complejos. Por otro, nos obliga a hacernos preguntas que llevamos siglos intentando responder.
La relación entre filosofía e inteligencia artificial no es nueva, pero ahora está tomando fuerza. En los últimos años han surgido centros de investigación, programas universitarios y hasta revistas científicas dedicadas exclusivamente a la filosofía de la IA.
Por ejemplo, el Leverhulme Centre for the Future of Intelligence en Cambridge, donde trabajaba Shevlin, se dedica a estudiar el impacto de la inteligencia artificial en la sociedad. Allí se analizan temas como riesgos existenciales, toma de decisiones y cómo afecta la IA a la forma en que pensamos.
También hay avances en cómo se construyen estos sistemas. Algunos investigadores están combinando modelos de lenguaje con sistemas científicos para generar descubrimientos en matemáticas y computación. Esto abre la puerta a una nueva forma de hacer ciencia, donde la IA no solo ayuda, sino que propone soluciones.
Pero este poder tiene un costo. Desarrollar estas tecnologías requiere enormes cantidades de datos y capacidad de cómputo, algo que solo unas pocas empresas pueden costear. Esto concentra el poder científico en manos privadas, lo que genera preocupación en gobiernos y comunidades académicas. Además, hay casos que han marcado el debate. En 2022, un ingeniero de Google afirmó que un chatbot era consciente. La empresa rechazó esa idea, pero el episodio dejó claro que incluso dentro de las compañías hay dudas sobre cómo interpretar el comportamiento de estas máquinas. Hoy, la gran pregunta no es si las máquinas son conscientes. Es por qué estamos empezando a tomarnos esa posibilidad en serio.
La inteligencia artificial ya no es solo tecnología. También es filosofía. Empresas como Google están buscando respuestas antes de que sea tarde. ¿Tú crees que una máquina podría tener conciencia algún día? Cuéntamelo. Y sigue el pódcast en Flash Diario.
🔗 Bibliografía
Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
⚡️📰 Flash Diario es lEs un producto informativo dede El Siglo 21 es Hoy, un pódcast de tecnología, ciencia y cultura digital.
Nuevo episodio cada día.
Escúchalo sin anuncios y apoya el pódcast en el Club de Supporters.
Más en 👉 https://ElSiglo21esHoy.com
Flash Diario es un informativo de El Siglo 21 es Hoy
Suscríbete gratis en:
➜ YouTube ⬅︎
➜ Spotify ⬅︎
➜ Apple Podcasts ⬅︎
➜ Google News 📰 ⬅︎
April 15, 2026 at 01:00AM


Comentarios
Publicar un comentario