Por qué a una inteligencia artificial le resultan más difíciles las tareas básicas para un humano
2026-02-16 - 06:35
Hubo un tiempo en que las máquinas basaron su desarrollo en la capacidad para enfrentarse a grandes maestros del ajedrez, con capacidades de cálculo que, sobre el papel, podían ser superiores al cerebro humano. Para algunos autores, como Rodney Brooks, este enfoque está claramente destinado al fracaso; en su libro Los elefantes no juegan al ajedrez (1990), el experto usó una metáfora muy poderosa para ilustrar el concepto básico de inteligencia. Mientras que un elefante es realmente inteligente en tareas básicas para su supervivencia, como establecer estructuras sociales complejas en su comunidad o navegar por parajes repletos de depredadores, no puede jugar al ajedrez. A día de hoy, el problema de la inteligencia artificial continúa siendo prácticamente el mismo: mientras que los modelos de entrenamiento detrás de ChatGPT, Gemini y otras tienen detrás billones de parámetros, aún no son capaces de entender los símbolos de la realidad. Es decir, que las máquinas son capaces de realizar pruebas complejas, como cálculos matemáticos y otras cuestiones relacionadas con el razonamiento abstracto, pero tienen mayor dificultad en las que resultan más cotidianas. Esto es lo que se conoce como la paradoja de Moravec, que ha guiado el desarrollo de la inteligencia artificial actual, y que la industria de hoy en día aún no ha logrado superar, al menos totalmente. La paradoja de Moravec, una explicación biológica sobre la IA Durante la década de los 80, los investigadores Hans Moravec, Brooks y Marvin Minsky llegaron a la conclusión de que una IA tendrá muchísimas dificultades para aprender las habilidades motoras propias de un bebé humano de 1 año de edad. Según los autores de este concepto, bautizado como la paradoja de Moravec, el ser humano se ha enfrentado a millones de años de evolución, por lo que las habilidades sensores y motoras ya están totalmente asumidas. Es una especie de automatización que la evolución ha conseguido, para no tener que pensar tareas tan básicas –y funcionales– como andar, correr o reír; en cambio, a la IA le cuesta entender estas reglas desde la propia lógica. En el lado contrario, el pensamiento abstracto es más novedoso en términos biológicos, con lo cual es habitual que una IA sea capaz de superar sin miramientos las capacidades de un ser humano. En comparación, el pensamiento humano, según Moravec, no se aleja de la lógica computacional, pero es una estructura que se basa totalmente en los sentidos, un gran reto para la IA, sobre todo si no está "presente" en un cuerpo robótico con sensores. Tanto Moravec como Brooks coinciden en este planteamiento: habría que educar a las máquinas a relacionarse con el entorno, y no solo a comprenderlo mediante cálculos lógicos complejos. El propio Brooks lo resumió así en su blog hace apenas 2 años: "La inteligencia solo puede existir en un cuerpo. Sin un cuerpo para experimentar el mundo, la IA es solo un fantasma en una caja de espejos". En conclusión, la IA no se enfrenta a retos propios de la ingeniería, sino más bien a la complejidad de imitar la biología humana, para lo que han sido necesarios millones de años de evolución, un tiempo que esta tecnología aún no ha alcanzado.