Kant entre robots, Hegel con inteligencia artificial
Muchas de las aplicaciones del adjetivo “racional” en el sector de la tecnología —sistemas de inteligencia artificial y aprendizaje profundo, robótica, blockchain, big data, etc.— son poco claras. O lo son demasiado, porque no alcanzan a decir nada concreto. Por ejemplo, afirmar que un entorno es “racional” equivale a asegurar que es inteligible, o sea, que puede ser entendido a través de la razón. ¿Y qué significa exactamente eso entre los dispositivos de la cuarta revolución industrial?
Algunos de los usos más extendidos de este concepto se deben al sociólogo Max Weber, que hace setenta años ya distinguió la “racionalidad de los fines”, que se refiere a los objetivos que son medios para otros propósitos más complejos, de la “racionalidad del valor”, que se supone absoluta. Si, como preconizan administraciones de todo el mundo y poderosas corporaciones como Facebook o Google, el fin que se persigue con la industria 4.0 es una sociedad igualitaria, esta sería más racional que otra que fuese enormemente injusta. Sin embargo, las grandes declaraciones de intenciones continúan siendo difíciles de plasmar.
¿Cuál es la razón de las máquinas?
¿Cuál es la razón de las máquinas?
Como a los filósofos, a los ingenieros les preocupa determinar qué género, clase o forma tiene la razón. El influyente José Ferrater Mora ya habló de múltiples tipos: universal, particular, natural, adecuada, humana, divina, etcétera. ¿Cuál sería la de las máquinas? O, al menos, ¿qué combinación de ellas serviría para estos aparatos? A menudo, se asimila esta idea a una facultad; otras veces, al intelecto; hay ocasiones en las que la palabra funciona como sinónimo de prueba, o de explicación. Los profesionales del márketing intercambian estos vocablos a su antojo.
No obstante, centros de producción como Silicon Valley y de investigación como el Massachusetts Institute of Technology (MIT, Estados Unidos) han abierto un intenso debate alrededor de esta cuestión. De hecho, cabría pensar que se trata de la cuestión más profunda que están abordando ahora mismo. No en vano estasdiscusiones sobre ética son más encendidas que las controversias informáticas. La corriente de opinión mayoritaria se apoya en teorías clásicas, de autores como Karl Popper, Hans Albert e incluso G. W. F. Hegel e Immanuel Kant, para apuntar que esta razón, al ser analítica, presta atención a los procesos lógicos y matemáticos de inferencia y deducción.
Pero, al mismo tiempo, elabora descripciones y se examina a sí misma. Va más allá de lo meramente instrumental, práctico y mecánico. Al plantearse la posibilidad de que su racionalidad conformase un conjunto de normas independiente de su eficacia, la distancia entre personas y robots se reduciría hasta desaparecer. De este modo, habría que dejar de pensar en estos entes artificiales como “utensilios” o “instrumentos”, según las definiciones tradicionales de pensadores como John Dewey o Martin Heidegger.
¿Para qué sirve entonces la filosofía en la cuarta revolución industrial? Alasdair MacIntyre, una figura clave en la reactivación del interés por la “ética de la virtud”, sostiene que no hay política sin ética, porque estos dos conceptos no pueden separarse. La vida en comunidad, explica este profesor de la Universidad de Notre Dame (Estados Unidos), exige que los ciudadanos sean virtuosos. La virtud es una cualidad, se puede aprender, no viene de un gen. Por lo tanto, como añaden los gurús de Palo Alto, si la pueden adquirir de esta forma los seres humanos, también los sistemas digitales.
Artículo original en :
https://www.lavanguardia.com/tecnologia/20200111/472778317152/etica-robots-inteligencia-artificial.html?fbclid=IwAR3n83hU5axwgNdGG7Gk153-jJTqjFuaAymagD8H903Guybu77qBZCFv__w
No hay comentarios:
Publicar un comentario