LA APLICACIÓN DE LA ÉTICA EN EL SIGLO XXI: HACIA UNA TECNOLOGÍA CON PROPÓSITO INTEGRAL

Santos E. Moreta Reyes 

Profesor asociado de Ética en el Instituto Tecnológico

de Las Américas, ITLA, RD 

smoreta@itla.edu.do

Resumen

La vertiginosa evolución tecnológica del siglo XXI, impulsada por la inteligencia artificial (IA), la biotecnología y la neurotecnología, plantea desafíos éticos sin precedentes que generan una deuda ética creciente. Ante ello, este artículo argumenta la necesidad de una transición paradigmática: de un enfoque reactivo y funcionalista de la tecnología, a un enfoque proactivo y teleológico[1], que sitúe los valores humanos en el núcleo del diseño y desarrollo; apoyándose en un marco teórico que integra la ética de la responsabilidad de Hans Jonas, el constructivismo tecnológico de Langdon Winner y el enfoque del Diseño Sensible a los Valores (VSD). Se analiza cómo implementar una tecnología con propósito y se proponen recomendaciones específicas para legisladores, empresas, educadores y la sociedad civil, con el fin de fomentar un ecosistema de innovación que no sólo mitigue riesgos, sino que promueva activamente el florecimiento humano y la justicia social. Se sostiene, que la integración de principios como la equidad, la transparencia y la rendición de cuentas no es una opción, sino un prerrequisito para la legitimidad, la aceptación social y la sostenibilidad a largo plazo de la innovación tecnológica.

Palabras Clave: Ética de la tecnología, propósito integral, Hans Jonas, Value Sensitive Design, innovación responsable, ética de la IA, gobernanza tecnológica, constructivismo tecnológico.

Abstract: The vertiginous technological evolution of the 21st century, driven by artificial intelligence (AI), biotechnology, and neurotechnology, poses unprecedented ethical challenges, giving rise to a growing «ethical debt». This article argues for a paradigm shift: from a reactive and functionalist approach to technology, to a proactive and teleological one that places human values at the core of design and development. Drawing on a theoretical framework that integrates Hans Jonas’s ethics of responsibility, Langdon Winner’s technological constructivism, and the Value-Sensitive Design (VSD) approach, it analyzes how to implement «technology with purpose». Specific recommendations are proposed for legislators, companies, educators, and civil society to foster an innovation ecosystem that not only mitigates risks but actively promotes human flourishing and social justice. We contend that the integration of principles such as equity, transparency, and accountability is not an option, but a prerequisite for the legitimacy, social acceptance, and long-term sustainability of technological innovation.

Keywords: Technology Ethics, integral purpose, Hans Jonas, Value Sensitive Design, responsible innovation, AI ethics, technology governance, technological constructivism.

1. Introducción: La Deuda Ética en la Era de la Aceleración Tecnológica

Vivimos una coyuntura histórica definida por una aceleración tecnológica sin parangón, la Cuarta Revolución Industrial, más que una simple sucesión de avances, representa una reconfiguración fundamental de lo que significa ser humano, fusionando las esferas física, digital y biológica de maneras que antes pertenecían a la ciencia ficción (Schwab, 2017). Sin embargo, esta era de progreso exponencial ha generado una peligrosa deuda ética: un desfase creciente entre el poder de nuestras herramientas y nuestra sabiduría para manejarlas. Cada avance en inteligencia artificial, edición genética o neurotecnología que se despliega sin una reflexión ética profunda, acumula un pasivo de consecuencias no deseadas que recaerán sobre las generaciones futuras.

La tecnología no es, como a menudo se asume en un paradigma tecnosolucionista, un vector neutral de progreso, como argumentó Langdon Winner (1980) en su influyente trabajo, los artefactos tecnológicos tienen políticas intrínsecas; sus diseños y arquitecturas promueven ciertas formas de poder y de vida social mientras inhiben otras. Un algoritmo de reconocimiento facial puede perpetuar sesgos raciales, una red social puede estar diseñada para fomentar la polarización y el tiempo de permanencia a costa de la salud mental, y una plataforma de economía colaborativa puede precarizar el trabajo bajo un velo de modernidad.

Este artículo rechaza frontalmente la noción de la ética como un añadido, un simple módulo de cumplimiento o un ejercicio de relaciones públicas. Por el contrario, se propone un giro teleológico en la concepción de la tecnología. No basta con preguntar ¿qué podemos hacer con la tecnología?; la pregunta fundamental debe ser ¿para qué propósito la creamos? Esto implica transitar desde una ética puramente deontológica (basada en reglas) o consecuencialista (basada en resultados) hacia una que integre una ética de la virtud y la responsabilidad, centrada en el propósito o telos de la innovación. El objetivo es claro: construir una tecnología con propósito integral, donde los valores humanos no sean una restricción, sino la principal fuente de inspiración y la métrica definitiva del éxito.

2. Marco Teórico para una Tecnología con Propósito

Para construir este nuevo paradigma, es necesario anclarlo en un marco teórico robusto que proporcione las herramientas conceptuales para el análisis y la acción.

2.1. El Imperativo de la Responsabilidad de Hans Jonas

Ante el poder sin precedentes de la tecnología moderna, especialmente en campos como la biotecnología, las éticas tradicionales resultan insuficientes. Hans Jonas (1984), en su obra magna El principio de responsabilidad, argumenta que la escala de nuestras acciones tecnológicas exige una nueva ética, proponiendo un «imperativo categórico» reformulado para la era tecnológica: «Obra de tal modo que los efectos de tu acción sean compatibles con la permanencia de una vida humana auténtica en la Tierra».

Este principio introduce dos conceptos clave para nuestro análisis:

  1. La heurística del miedo[2]: Jonas nos insta a prestar más atención a los pronósticos negativos que a los positivos. Ante la incertidumbre de los efectos a largo plazo de tecnologías como la IA general o la edición de la línea germinal, es la previsión del daño potencial la que debe guiar nuestra acción, promoviendo un principio de precaución robusto.
  2. La responsabilidad hacia el futuro: Nuestra obligación ética se extiende a las generaciones futuras y a la biosfera en su totalidad. Esto obliga a los innovadores a considerar el impacto a largo plazo de sus creaciones, mucho más allá de las métricas de beneficios trimestrales.

2.2. El Constructivismo Tecnológico: «Los Artefactos Tienen Política»

Para superar la falacia de la neutralidad tecnológica, nos apoyamos en la tesis de Langdon Winner (1980), quien demostró que las tecnologías son formas de orden social. Los diseños tecnológicos no son meras herramientas; son elecciones que configuran las relaciones de poder. Por ejemplo, la arquitectura de un sistema de software puede centralizar o descentralizar el control, sus algoritmos pueden promover la equidad o exacerbar la discriminación.

Este enfoque nos obliga a realizar un «análisis político» de la tecnología, preguntando: ¿Quién se beneficia de este diseño? ¿Qué grupos son sistemáticamente desfavorecidos? ¿Qué tipo de mundo y de ser humano presupone y fomenta esta tecnología? Esta perspectiva es fundamental para desmantelar la idea de que los sesgos en la IA son meros «errores» técnicos, y reconocerlos como el resultado de decisiones de diseño y estructuras sociales incrustadas en el código.

2.3. El Diseño Sensible a los Valores (Value Sensitive Design – VSD)

Como puente entre la teoría abstracta y la práctica del diseño, adoptamos el marco del Diseño Sensible a los Valores (VSD). El VSD es una metodología tripartita que busca integrar los valores humanos de manera sistemática en el proceso de diseño tecnológico desde el principio (Friedman & Hendry, 2019). Sus tres fases son:

  1. Investigación Conceptual: Se identifican los valores humanos fundamentales implicados en el proyecto (p. ej., privacidad, autonomía, confianza, justicia) y se analiza a los stakeholders directos e indirectos.
  2. Investigación Empírica: Se investiga cómo los stakeholders comprenden y priorizan esos valores en el contexto de la tecnología en cuestión, utilizando métodos cualitativos y cuantitativos.
  3. Investigación Técnica: Se exploran y diseñan los mecanismos tecnológicos que encarnan los valores identificados. Por ejemplo, si la «privacidad» es un valor clave, se podrían implementar arquitecturas de «privacidad por diseño» como la federación de datos o la encriptación homomórfica.

El VSD proporciona una metodología rigurosa para traducir los imperativos éticos de Jonas y las críticas de Winner en decisiones de ingeniería concretas, haciendo que la «ética por diseño» sea una realidad tangible y no solo un eslogan.

3. Recomendaciones Específicas para un Ecosistema de Innovación Responsable

Basados en el marco teórico expuesto, proponemos las siguientes recomendaciones para los actores clave del ecosistema tecnológico:

Para Desarrolladores y Empresas Tecnológicas:

  • Adoptar el VSD como estándar: Integrar la metodología de Diseño Sensible a los Valores en los ciclos de vida del desarrollo de productos, desde la ideación hasta el despliegue y mantenimiento.
  • Crear «Comités de Ética» vinculantes: Establecer comités de ética multidisciplinarios (con filósofos, sociólogos, abogados y representantes de la sociedad civil) con poder real para auditar y, si es necesario, vetar proyectos que contravengan los principios éticos de la organización.
  • Fomentar la transparencia algorítmica: Desarrollar y publicar «fichas técnicas de modelos» (Model Cards) o «hojas de datos para conjuntos de datos» (Datasheets for Datasets) que documenten el rendimiento, las limitaciones y los sesgos potenciales de los sistemas de IA (Gebru et al., 2021).

Para Legisladores y Organismos Reguladores:

  • Desarrollar una «Gobernanza Adaptativa»: Crear marcos regulatorios ágiles que no se centren en prohibir tecnologías específicas, sino en regular sus aplicaciones de alto riesgo. La Ley de Inteligencia Artificial de la UE es un paso en esta dirección (Comisión Europea, 2021).
  • Incentivar la «Ética por Diseño»: Ofrecer incentivos fiscales o ventajas en la contratación pública a las empresas que puedan demostrar de forma verificable la implementación de marcos éticos robustos en sus procesos de diseño.
  • Establecer regímenes de responsabilidad claros: Legislar para que la responsabilidad por los daños causados por sistemas autónomos pueda atribuirse claramente a los desarrolladores, implementadores o propietarios, evitando vacíos legales.

Para Instituciones Académicas y Educativas:

  • Reformar los planes de estudio de STEM: Integrar módulos obligatorios de ética, filosofía de la tecnología y estudios de ciencia y tecnología (CTS) en los grados de Ingeniería, Informática y Ciencia de Datos.
  • Promover la investigación interdisciplinaria: Fomentar la creación de centros de investigación que unan a tecnólogos con humanistas y científicos sociales para abordar conjuntamente los desafíos éticos de las nuevas tecnologías.

4. Conclusiones: Hacia una Tecnología que nos Haga más Humanos

Hemos argumentado que la trayectoria actual de la innovación tecnológica, si no se redirige, amenaza con profundizar una peligrosa deuda ética. La solución no reside en frenar el progreso, sino en dotarlo de un propósito integral y humano. Para ello, hemos propuesto un marco teórico robusto que, partiendo del imperativo de responsabilidad de Hans Jonas, reconoce que los artefactos tienen política (Winner) y nos dota de una metodología práctica como el Diseño Sensible a los Valores (VSD) para actuar en consecuencia.

La transición de una tecnología funcionalista a una con propósito teleológico no es un mero ajuste técnico; es un cambio cultural profundo. Requiere que los ingenieros se vean a sí mismos como constructores de mundos sociales, que las empresas midan su éxito no solo en términos de beneficios económicos sino de impacto humano, y que los ciudadanos pasen de ser consumidores pasivos a participantes activos en la configuración de su futuro tecnológico.

Las recomendaciones específicas que hemos delineado ofrecen una hoja de ruta para comenzar este viaje. La tarea es monumental, pero la alternativa —una tecnología sin rumbo ético, que nos aliene de nosotros mismos y de los demás— es sencillamente inaceptable. El objetivo final debe ser la creación de una tecnología que no solo resuelva problemas, sino que nos ayude a florecer, que amplíe nuestras capacidades para la empatía, la creatividad y la justicia. Una tecnología que, en última instancia, nos haga más y no menos humanos.

Referencias Bibliográficas

Comisión Europea. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Brussels: European Commission. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

Friedman, B., & Hendry, D. G. (2019). Value Sensitive Design: Shaping Technology with Moral Imagination. The MIT Press. https://mitpress.mit.edu/9780262039536/value-sensitive-design/

Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86-92. https://dl.acm.org/doi/10.1145/3458723

Jonas, H. (1984). The Imperative of Responsibility: In Search of an Ethics for the Technological Age. University of Chicago Press. (Título original: Das Prinzip Verantwortung, 1979). https://archive.org/details/imperativeofresp0000jona/page/n5/mode/2up

Schwab, K. (2017). The Fourth Industrial Revolution. Crown Business. https://www.weforum.org/about/the-fourth-industrial-revolution-by-klaus-schwab/

Winner, L. (1980). Do Artifacts Have Politics? Daedalus, 109(1), 121–136. https://www.jstor.org/stable/20024652


[1] Teleológico: Del griego telos, que significa «fin», «propósito» o «meta». Un enfoque teleológico evalúa las acciones y los sistemas en función del fin o propósito que persiguen. En este contexto, se opone a un enfoque puramente funcionalista que solo se pregunta si la tecnología «funciona» técnicamente.

[2] Heurística del miedo: Concepto acuñado por Hans Jonas que propone dar prioridad a las predicciones de amenaza sobre las de promesa al considerar tecnologías con consecuencias potencialmente vastas e irreversibles. No es un llamado a la parálisis, sino un principio de prudencia y responsabilidad ante lo desconocido.

Deja un comentario