“No sé si tiene sentido ni interés que un robot piense y razone como una persona”
Fernando Broncano es catedrático de Lógica y Filosofía de la Ciencia en la Universidad Carlos III de Madrid (UC3M). El campo general de investigación de este doctor en Filosofía es la noción de racionalidad. En los aspectos epistémicos, ha trabajado en los problemas de la racionalidad en la ciencia y las comunidades científicas, desde donde ha derivado a problemas más generales de filosofía de la mente. Actualmente trabaja en la importancia de la metarrepresentación en la cultura y la ciencia y se postula en contra de la división de la cultura en dos: la científica y la humanística.
Ha participado en más de una decena de proyectos de investigación, impartido conferencias en Argentina, Bolivia, Estados Unidos, México y otros países. Y es autor de cuatro libros, como “Mundos artificiales” o “La melancolía del ciborg”. El próximo viernes 27 de septiembre participa en la tertulia que se celebra en el marco de la Noche de los Investigadores de Madrid bajo el título: “Los robots y las leyes del futuro”, un encuentro entre científicos, tecnólogos y legisladores para analizar los restos sociales ante avances tecnológicos como la robótica.
Pregunta. En algunos de sus ensayos habla del humanismo ciborg. ¿A qué se refiere?
Respuesta. Por humanismo ciborg entiendo una redefinición de la escala humana para hacernos cargo de la conformación técnica de nuestra especie. Hasta ahora, el humanismo tradicionalmente se ha sostenido sobre una imagen de los humanos basada en considerar como equivalentes la división entre lo animal y lo humano y lo corporal y lo intelectual. Estas dos divisiones deben ser redefinidas por lo que hemos aprendido tanto de la biología evolucionista como de la antropología. Los humanos somos una especie constituida en su trayectoria por la creación de entornos técnicos que modificaron las condiciones evolutivas. No podemos pensar ya a los humanos sin la cultura técnica. Es algo que comenzó en el Pleistoceno y continúa ahora. Lo humano está definido en una red de lo bio-psicológico y los entornos técnicos. Es lo que he denominado ciborg, porque el término se refería a organismos completados por dispositivos técnicos, exactamente como cualquier humano: con sus lentes, con sus aparatos de comunicación, con sus artefactos de memoria o de mantenimiento sanitario.
P.¿El nuevo humanismo ahora no se entiende sin las nuevas tecnologías?
R. Yo creo que el humanismo no se entiende sin las técnicas y claro, por lo mismo, sin las denominadas nuevas tecnologías (quizá deberíamos cambiar ya el término después de más de cincuenta años de extensión). La presencia de las pantallas, la comunicación y acción a distancia, la creación de un entorno digital, todo ello ha redefinido no solo las relaciones sino también la identidad de las personas y los grupos. Basta comprobar lo que ocurre cuando nos quedamos sin televisión, sin wifi, sin teléfono... la sensación de desamparo puede ser mayor que cuando nos quedamos sin transporte físico en un espacio perdido.
P. La irrupción de las nuevas tecnologías facilita mucho nuestra vida diaria, pero, ¿hasta qué punto pueden ser también fuente de problemas sociales?
R. Todo cambio técnico abre posibilidades y crea tantas soluciones como nuevos problemas. No tenemos conocimiento de ningún cambio técnico que no haya creado muchos problemas. Piénsese en la escritura: ¡qué maravilla, poder mantener la memoria colectiva sin tener que comunicárnosla directa y verbalmente! Pero, también, cuánta fuente de nuevos problemas: la escritura creó los grandes imperios, los estados absolutos de los grandes ríos (en el Creciente Fértil, en el Nilo, en el Río Amarillo, en el Ganges) ¿no son nuevos problemas sociales creados por el hecho de que aparecieron las leyes, el derecho, pero también el poder abstracto? Ahora bien, los problemas de la escritura no pueden resolverse sin escritura. Pues lo mismo con las nuevas tecnologías.
P. ¿Cree que son necesarios cambios sociales ante la llegada y el impacto de nuevas tecnologías, como las redes sociales, a nuestras vidas?
R. La transformación social que ha producido la globalización es un efecto directo de las nuevas tecnologías. El sistema legal del mundo debe redefinirse para hacernos cargo de un planeta conectado. Es quizá el desafío más urgente e importante de los tiempos actuales. Este es un ejemplo; el otro es la educación. La idea de los campus físicos y del aula cerrada en el espacio y el tiempo puede estar tan en crisis como el formato papel para el libro.
P. ¿Cuáles son los principales que plantea ante la llegada de la robótica a nuestras vidas?
R. Tengo la impresión de que la robótica en un sentido muy amplio va a ser el entorno técnico del tiempo futuro cercano, en el mismo sentido que la digitalización ha definido nuestro presente. El problema principal que se nos plantea es redefinir la noción de control sabiendo que muchas formas de control las transferimos a los dispositivos técnicos. El sistema de regulación legal tendrá que repensarse las nociones de responsabilidad para hacerse cargo de estos nuevos entornos.
P. ¿Puede un robot llegar a pensar y razonar como una persona?
R. No sé si tiene sentido ni interés que un robot piense y razone como una persona. Yo creo que lo importante es que piense y razone como un robot inteligente. Sería terrible tener a un robot doméstico controlando nuestra casa con la inteligencia de un niño de tres años, y sin embargo sería un logro técnico. Como investigación teórica, yo creo que podemos tomar las funciones humanas, todas, como tests y modelos para la construcción de robots, e incluso podemos plantearnos construir androides para ciertos propósitos, pero ¿es interesante construir personas? La ciencia ficción ha considerado mucho estas cuestiones, pero me parece que la discusión está en otro lado, en la distinción entre robótica de investigación y robótica de aplicación.
P. Y en el futuro, si la Inteligencia Artificial dotara a los robots de cierta autonomía, ¿en qué papel quedaría el hombre? ¿Cuál sería su función?
R. La IA ya ha dotado a los robots de autonomía. No funcionaría el mundo si no fuera así. Las redes eléctricas, la telefonía e incluso la bolsa ya no funcionarían sin “robots” (en un sentido aquí un poco metafórico) que usan programas de Inteligencia Artificial. La función es precisamente crear entornos seguros y protegidos contra la estupidez y los errores humanos. El lugar de los humanos es el de siempre: se readaptan y reconfiguran en estos entornos. ¿Dónde queda el conductor de un automóvil ahora que lleva máquinas que son casi robots? Bueno, pues sigue siendo el conductor, incluso si el automóvil no necesitase un control de conducción en cada instante.
P. ¿Hasta qué punto puede cambiar la figura del robot la autopercepción del hombre?
R. Es muy interesante pensar en esta posibilidad. Yo creo que estamos ya rehaciendo nuestra imagen. Pero tal vez debemos pensar en qué tipo de robots son los que van a producir más impacto sobre nuestras vidas. Yo me atrevo a pensar que van a ser, por un lado, los macrosistemas de control y, por otro, los microrobots de la vida cotidiana y el cuerpo. Pero no sabría decir mucho más aparte de hacer ciencia ficción. Creo que la idea, como dije antes, va a ser en la línea de redefinir control y responsabilidad.
P. ¿Qué puede aportar la filosofía y el humanismo a la robótica?
R. Como en otros campos, la filosofía comienza cuando el trabajo fundamental ya está hecho: muy poco en lo que respecta a la investigación; mucho en lo que tiene que ver con el análisis conceptual, el examen de los aspectos finos de la interacción con los humanos y la sociedad, y en cierta forma contribuye, si creamos lugares de conversación, a crear una visión más reflexiva sobre lo que se está haciendo. De hecho, muchos filósofos han participado en el desarrollo de la robótica contemporánea, como Daniel Dennett, de la Tufts University, entre muchos otros.