Ir al contenido principal

La inteligencia artificial. Beneficios, peligros y proyecciones | Arturo Iván Rojas


La IA (en inglés AI), sigla que hace referencia a la inteligencia artificial, llegó para quedarse y entrar a formar parte, para bien y para mal, de la vida de todos, cristianos y no cristianos por igual. Por eso, para los cristianos, de quienes el apóstol Pablo afirmó que debemos estar en capacidad de juzgarlo todo con un juicio justo y ponderado, pues “el que es espiritual lo juzga todo” (1 Corintios 2:15), habilitados por Dios para poder hacerlo con criterio bíblico; es necesario documentarnos y conocer un poco más sobre este tema, separando los mitos de la realidad e identificando, de paso, los beneficios y los peligros que estos nuevos desarrollos culturales y tecnológicos tienen para la humanidad en general y para la iglesia en particular en el propósito de perseverar en nuestra fe con una limpia e ilustrada conciencia al respecto, aprovechando los beneficios y sorteando los peligros, y salvando así de la mejor manera nuestra responsabilidad en el mundo.

Lo primero que hay que decir es que el término “inteligencia” puede ser equívoco, pues transmite la idea de que, en realidad, no existe una gran distancia cualitativa entre la inteligencia artificial propia de las máquinas y la inteligencia natural que los seres humanos e incluso los animales superiores poseen. Todo parece reducirse a una cuestión cuantitativa, es decir de cantidad, no de calidad. Así, en términos cuantitativos, los seres humanos seríamos simplemente más inteligentes que los animales superiores como el perro, el elefante, el delfín o el chimpancé. Y visto así, tendríamos que decir ya que la inteligencia artificial es más inteligente que el ser humano, pues procesa un gran cúmulo de información de una manera muchísimo más rápida y efectiva de lo que el ser humano puede hacerlo. Pero esta visión es supremamente simplista y altamente engañosa, pues el asunto es en realidad preguntarnos, antes de entrar en consideraciones cuantitativas acerca de quien, qué o cuál es más o menos inteligente que otro; qué es la inteligencia (algo muy complejo y de lo cual no nos ocuparemos aquí) y qué tipo o clase de inteligencia poseen uno u otro.
Por ejemplo, hoy por hoy muy pocos dejarían de reconocer que, por muy inteligentes que puedan llegar a ser, los animales superiores como el chimpancé, el elefante o el delfín, la diferencia de la inteligencia humana en relación con la de ellos no es simplemente de cantidad, sino de clase. Es decir, que aunque tengamos muchas cosas en común, los seres humanos no sólo somos más inteligentes que ellos, sino que nuestra inteligencia es de un tipo diferente a la de ellos y el paso de la una a la otra no se logra añadiendo más inteligencia a los animales en una pendiente crecientemente ascendente, sino que el paso de la inteligencia animal a la humana implica un “salto”, una “ruptura de nivel”, un corte vertical en la inteligencia animal que la traslade a un nivel o categoría superior, que no se puede alcanzar en el tiempo añadiendo simplemente más y más inteligencia en una pendiente ascendente.

Algo similar sucede con la llamada “inteligencia artificial”. La inteligencia artificial puede ser notoriamente más inteligente que la humana para llevar a cabo ciertas tareas específicas que los seres humanos llevan o han llevado a cabo a lo largo de la historia, pero sigue siendo inferior cualitativamente, no sólo en relación con la inteligencia humana, sino también incluso en relación con la inteligencia orgánica de los animales superiores con su sustrato biológico. Y en este punto hay que establecer una diferencia fundamental. Una cosa es la IA, a secas, o si se prefiere, la inteligencia artificial débil, que ya es una realidad presente, y que tiene que ver, como nos lo informa John Lennox, con: “la construcción de sistemas que hacen algo que aún requiere de la inteligencia humana para su implementación” como por ejemplo los populares asistentes Siri (de Apple) y Alexa (de Amazon) o la también muy conocida IA conversacional ChatGPT (de OpenAI), entre otras, o la ya disponible generación de imágenes y video mediante inteligencia artificial; y otra muy diferente la muy especulativa e imaginativa IAG o inteligencia artificial general que realizaría, no algunas cosas, sino todas las que la inteligencia humana puede hacer, con plena autonomía.

Ésta última es la que se recrea en las películas futuristas y distópicas de Hollywood ꟷtipo Matrix o la Skynet de la saga de Terminatorꟷ y toda la industria del cine y la televisión en general y la que algunos de los implicados en el desarrollo de la inteligencia artificial piensan o pronostican, de manera ingenua e infantilmente entusiasta y optimista, que se logrará en un relativamente corto plazo y que superará a la inteligencia humana en todos los aspectos. De hecho, Lennox en su libro 2084 traza a vuelo de pájaro el desarrollo histórico de la IA diciendo que ya ha estado presente con nosotros desde el siglo XVII cuando el matemático francés Blas Pascal fabricó una calculadora mecánica. La novedad de la IA no está, pues en la mayor inteligencia que hoy esté en condiciones de desplegar y de exhibir ante nuestros ojos (valga decir que las calculadoras científicas y las hojas de cálculo ya son algo tan normal y con lo que convivimos a diario, y que damos por sentado sin pensar ya mucho en ello), sino en el intento ya de no fabricar máquinas que desempeñen mejor que nosotros ciertas funciones específicas, sino de fabricar máquinas que estén en condiciones de aprender por sí mismas.

El cambio más significativo es, entonces, que si antes los programadores diseñaban y creaban un algoritmo explícito para resolver un problema concreto, el propósito ahora es diseñar un algoritmo de aprendizaje general que, más que “saber” cómo resolver el problema, “aprenda” más bien a resolverlo. Lo cual no deja de ser impresionante, pero está muy lejos todavía de las capacidades polifuncionales y ampliamente versátiles de la mente y la inteligencia humana en conjunción con nuestros cuerpos materiales. En este sentido, como lo explica John Lennox: “un sistema de aprendizaje automático toma información sobre el pasado y toma decisiones o hace predicciones cuando se le presenta nueva información”. Para entender la diferencia entre estas dos clases de algoritmos podemos referirnos a uno de los hitos señalados y celebrados por los diseñadores y desarrolladores de IA: el momento en que la computadora Deep Blue de la IBM se convirtió en campeón mundial de ajedrez al derrotar al gran maestro y campeón mundial ruso Gary Kasparov. Al respecto Nick Bostrom y Eliezer Yudkowsky comentan: “Deep Blue se convirtió en campeón mundial de ajedrez, pero ni siquiera puede jugar a las damas y mucho menos conducir un coche o hacer un descubrimiento científico”, a semejanza de la habilidad especializada de un castor para construir presas o de una abeja para construir colmenas, por contraste con el hecho de que: “Un humano, observando, puede aprender a hacer ambas cosas… una capacidad única entre todas las formas de vida biológica”, que es la que se quiere imitar y reproducir ahora mediante la inteligencia artificial.

Porque, si bien, como lo define el diccionario, un algoritmo es un “conjunto claramente definido de operaciones lógicas o matemáticas para la realización de una tarea concreta”, como lo sería en el caso de Deep Blue el jugar ajedrez; también es cierto que, logrado lo anterior, se sigue que un algoritmo también puede pulirse y diseñarse para llegar a convertirse en un procedimiento general para solucionar todo un conjunto de problemas, que es el fundamento de la llamada “inteligencia” artificial con su capacidad de “aprender”. Al decir de John Lennox: “esa es la característica clave de un algoritmo: una vez que sabes cómo funciona, puedes resolver no solamente un problema, sino toda una clase de problemas”. De todos modos, si he utilizado las comillas hace un momento para referirme, no solo a la inteligencia en vista de las reservas que he expuesto para llamarla inteligencia en toda propiedad, sino también las he utilizado para la palabra “aprendizaje”, es porque estos dos términos por igual, aplicados a máquinas, no dejan de ser inconvenientes.

Este es uno de los problemas inevitables del llamado “lenguaje antropomórfico”, por el que los seres humamos trasladamos o trasponemos a realidades que no son propiamente humanas, características humanas, algunas de ellas exclusivamente humanas. Así, en relación con Dios, una realidad superior a la humana, pero que comparte con la humanidad significativos rasgos o características comunes, utilizamos expresiones antropomórficas para referirnos a Él, pues no tenemos otras mejores. Pero, por otro lado, hacemos lo mismo con seres o realidades inferiores a la humana, como por ejemplo cuando tendemos a darles a los animales personalidad o, en este caso, con construcciones humanas como los sistemas complejos de procesamiento de datos que se designan como “inteligencia artificial” para tratar así de entender en qué consisten, por asociación con nuestras propias experiencias como humanos que somos.    

Por eso también en este caso, así como el término “inteligencia” puede ser equívoco y transmitir ideas falsas que sobrevaloran la inteligencia artificial y evocan falsas asociaciones ꟷexpresión en la que el adjetivo “artificial” es mucho más acertado que el sustantivo “inteligencia”ꟷ, así también sucede con la expresión “aprendizaje”. A esto se suma y hace referencia John Lennox cuando dice que: “Una posible fuente (adicional) de confusión es que al utilizar palabras cotidianas como ‘aprendizaje’, ‘planificación’, ‘razonamiento’ e ‘inteligencia’ como términos técnicos para describir maquinaria inanimada, algunos científicos informáticos hacen que los sistemas de IA parezcan más capaces de lo que realmente son… Como resultado, la cobertura mediática de la IA tiende a exagerar los resultados y a ser excesivamente optimista o excesivamente pesimista”.

En cuanto al excesivo optimismo, Danny Crookes, profesor de ingeniería informática en Queen’s University Belfast, dice: “En realidad, las tecnologías actuales que comienzan a preocuparnos… no son muy inteligentes. De hecho, no tienen por qué serlo… Es preocupante, o impresionante, pero realmente no es inteligencia. En la investigación de la IA, está de moda el llamado ‘aprendizaje profundo’, pero no es particularmente nuevo: lo único novedoso es que ahora contamos con la potencia informática para ejecutar las redes neuronales multicapa que han existido desde hace décadas sobre el papel”. A su vez, el profesor Joseph McRae Mellichamp sostiene: “Me parece que podríamos evitar mucho debate innecesario si los investigadores de la IA admitieran que hay diferencias fundamentales entre la inteligencia de las máquinas y la inteligencia humana, diferencias que ningún tipo de investigación va a superar”. En la misma línea Crookes añade: “Todavía estamos muy, muy lejos de crear una inteligencia que iguale a la inteligencia humana… De hecho, podría decirse que en los últimos años el progreso en IA real se ha ralentizado… Hay razones para dudar que algún día se logre. Supongo que lo que quiero decir es que debemos ser cautos y no dar por sentado que la humanidad tiene la capacidad intelectual de crear una inteligencia que rivalice con la inteligencia humana, y mucho menos que la supere, por mucho tiempo que tengamos”. Lo cual nos lleva al tema de la dignidad humana y sus características únicas que abordaremos un poco más adelante.

Más allá de esto, lo cierto es que, en realidad, como todo avance tecnológico, la inteligencia artificial es una espada de dos filos y en las manos de seres humanos caídos y falibles, tiene tanto potencial para lo bueno como para lo malo. Entre su potencial para lo bueno, ya podemos ver y comprobar su implementación en avances médicos sin precedentes que están revolucionando la medicina en la ayuda en el diagnóstico de enfermedades, el diseño de tratamientos personalizados, la aceleración en la investigación de fármacos y en la detección de patrones que los humanos no podríamos ver tan fácilmente. También en física, biología, astronomía y otras ciencias, permite manejar y analizar grandes volúmenes de datos con una eficiencia sin precedentes. Del mismo modo, la automatización de procesos alcanzados mediante su implementación puede liberar a las personas de trabajos rutinarios o peligrosos, y les permite ganar más tiempo para dedicarlo a tareas creativas, sociales o espirituales.

Esto incluye desde robots industriales hasta asistentes virtuales, como los ya mencionados y populares Siri, Alexa o también Google Assistant e inteligencias artificiales conversacionales como ChatGPT y Perplexity. Otra ventaja es que la inteligencia artificial puede adaptarse a diferentes ritmos de aprendizaje, estilos cognitivos y necesidades especiales, democratizando el acceso al conocimiento, incluso en contextos de marginación o aislamiento. Aplicada correctamente, la IA puede ayudar a enfrentar desafíos como el cambio climático (creando modelos de escenarios complejos que tengan en cuenta todos los datos que se han logrado obtener al respecto), mejorar la eficiencia energética, combatir fraudes, planear ciudades más habitables y optimizar sistemas alimentarios. Y, paradójicamente y en contra de quienes la satanizan, la IA también está ayudando a los humanos a pensar más profundamente en qué significa ser humano, qué valoramos, y qué tipo de futuro queremos construir, al actuar como un espejo y un catalizador del pensamiento ético y teológico que recoge la historia del pensamiento en los campos de la filosofía y la teología.

Sin embargo, algunos de sus riesgos también son muy reales y actuales, comenzando por la pérdida de empleos y el incremento de la desigualdad social, pues, aunque pueda liberarnos de ciertos trabajos al automatizarlos, esta automatización también puede desplazar a millones de trabajadores sin una transición justa y sin posibilidad ni capacidad de prepararse para los nuevos trabajos que se espera que la IA también pueda crear. Esto puede profundizar la desigualdad entre países, clases sociales y sectores educativos. A su vez, las capacidades avanzadas de la IA están, en gran medida, en manos de unas pocas corporaciones y gobiernos. Esto crea una asimetría peligrosa: quienes controlan la IA pueden manipular mercados, narrativas sociales, elecciones y, en casos extremos, la libertad misma. En conexión con esto existe el riesgo de la manipulación, vigilancia y pérdida de privacidad, pues así como ya vemos y somos objeto de algoritmos que analizan nuestros datos para personalizar la publicidad e inducir el consumo, también hay casos muy puntuales y preocupantes en que, como lo hace el gobierno chino con grupos étnicos particulares como los uigures, se utiliza para vigilar, predecir comportamientos o suprimir disidencias. Lo que algunos ya llaman el “capitalismo de vigilancia” es una realidad cada vez más difícil de eludir.

Otro riesgo que hay que mencionar es la creciente dependencia y erosión de habilidades humanas tradicionales, pues si no se regula ni se gestiona bien, la IA puede fomentar una dependencia tecnológica que empobrezca habilidades humanas esenciales, tales como la memoria, el juicio, la creatividad y la empatía, pues así como el avance de la ciencia nos ha llevado a la conclusión de que no todo lo que puede hacerse, debe hacerse, también podríamos decir que no todo lo que puede delegarse, debe delegarse. De la mano de la IA un fenómeno ya presente desde la irrupción de internet y las dinámicas “virales” a las que dio lugar, puede incrementarse y escalar hasta nuevos niveles. Me refiero a la desinformación y el colapso epistemológico o relativo al conocimiento del que podemos disponer, pues con la generación de textos, audios y videos falsos (las ya clásicas deepfakes o fakenews, por ejemplo), se pone en mayor riesgo la confianza pública en lo que es real. Así, si no se establecen mecanismos de verificación, la verdad misma puede volverse relativa o manipulable. Por último, en el hipotético caso de que se llegue a desarrollar una IA general (IAG) más capaz que los humanos en casi todos los ámbitos cognitivos, los riesgos se amplifican: desde la pérdida de control sobre sus acciones hasta escenarios donde los intereses humanos no estén protegidos.

Pero existen alternativas para evitar la aparición o el incremento de estos peligros que deben tenerse en cuenta, entre las que encontramos fomentar el balance necesario entre la regulación, sin caer en el sofocamiento. Uno de los aspectos más enfatizados por John Lennox en su libro es, justamente, la necesidad fundamental de establecer marcos éticos y jurídicos que guíen el desarrollo y uso de la IA, sin impedir la innovación, pero sí orientándola hacia el bien común, educando para convivir con la IA mediante una especie de alfabetización digital y ética que debería incluir no solo saber usar tecnología, sino también discernir sus límites, implicaciones y riesgos, defendiendo en el proceso lo característicamente humano, es decir las decisiones cruciales sobre justicia, dignidad, amor, sufrimiento y espiritualidad que deben seguir siendo, por lo tanto, humanas. La IA puede ayudar, pero no reemplazar las actividades que proceden y definen el corazón, la conciencia o el alma humanas. También es posible y necesario diseñar sistemas con transparencia, seguridad, equidad y claridad. En resumen, la IA es como el fuego: puede dar luz y calor, o puede destruir. Lo determinante no es la herramienta, sino la mano (y el corazón) de quien la empuña, por lo que la verdadera pregunta no es ¿qué puede y no puede hacer la IA,? sino ¿en qué queremos convertirnos al hacer uso de ella y convivir con ella?

Ahora bien, debemos hacer de nuevo referencia a lo que plantean películas como The Matrix o Terminator, y otras similares, pues si bien estos escenarios no son completamente inverosímiles, no dejan de ser versiones dramatizadas, extremas y estilizadas de preocupaciones reales sobre la inteligencia artificial. Es decir que la distopía de Hollywood tiene su base en algunos riesgos auténticos, pero los exagera o simplifica por razones narrativas. Entre lo que tienen de real podemos señalar la eventual pérdida de control sobre una hipotética IA superinteligente (IAG), que termine actuando con objetivos que no entendamos ni podamos controlar. Filósofos y expertos como Nick Bostrom, Eliezer Yudkowsky o incluso Elon Musk han advertido sobre escenarios en los que una IAG, no por malvada, sino por indiferente a nuestros valores, pueda causar daños masivos. De manera muy concreta, en el campo de la autonomía militar y las armas letales en el que el uso de IA en sistemas de armas autónomas ya es una realidad. Por eso, no es descabellado pensar, como lo hacen y lo temen algunos analistas, que sistemas militares automáticos puedan actuar sin supervisión humana y escalar conflictos. Aquí Terminator no está tan lejos de ciertos desarrollos actuales.

En cuanto a The Matrix, ésta parte de una tesis filosófica más que tecnológica: el problema de la colonización de la mente humana y las realidades simuladas a las que algunos se refieren coloquialmente como el problema “del cerebro en una cubeta” que han dado lugar a, éstas sí, descabelladas y muy imaginativas teorías de conspiración como las de quienes afirman que vivimos en una simulación. Pero en conexión con esto, la IA también puede incrementar el creciente aislamiento y desconexión social del individuo humano, mediante una mayor inmersión en realidades virtuales, redes sociales, mundos artificiales y metaversos que sí ponen en juego nuestra percepción de la realidad, nuestra identidad y nuestra autonomía mental, como lo ilustran y dramatizan bien los episodios distópicos y futuristas de series de televisión como The Black Mirror.

Sin embargo, lo que Hollywood sí exagera y no tiene fundamento en la realidad es el atribuir una suerte de conciencia y autonomía total a las máquinas, como las que parecen tener Skynet o la Matrix, que no son solamente supremamente inteligentes, sino que parecen poseer conciencia, malicia y deseos de dominación, en lo que no deja de ser un triste ejemplo de cómo terminamos atribuyendo a las máquinas lo que no dejan de ser males exclusivamente humanos (haciendo aquí abstracción de los ángeles caídos). Porque como ya lo hemos dicho, hoy no hay evidencia ni cercana de que la IA esté en capacidad de desarrollar conciencia subjetiva, ni emociones, ni voluntad, junto con las motivaciones humanas que las caracterizan. Así, si la IA o la IAG o cualquiera de nuestras creaciones actúan eventualmente en perjuicio nuestro no se deberá a que “odien” a los humanos ni a que quieran exterminarnos, sino a que sean indiferentes a nosotros (o, por decirlo de otro modo, a que “no les importemos”) debido a que quienes las han programado les han dado, por ignorancia o carencia de saludables marcos éticos de referencia, objetivos mal definidos cuyas consecuencias no entendamos hasta que sea tarde.

Algo más en lo que falla el cine y la televisión es en la velocidad del colapso. En ellos todo ocurre de un día para otro: la IA despierta y en 24 horas ya esclavizó a la humanidad. En la realidad, los procesos de desarrollo, implementación, y diseminación de tecnologías llevan años. Y en este caso lo peligroso no es lo repentino, sino la falta de regulación mientras ocurre gradualmente. Las películas suelen reducir el conflicto a “IA mala vs humanos buenos”, cuando en la vida real ni la IA es mala, ni los humanos buenos. Por eso, los mayores peligros de la IA no son inherentes a ella, sino externos y surgen por lo que hacen los humanos con ella: gobiernos, empresas o grupos interesados en poder, dinero o control, no por máquinas rebeldes.

La actitud saludable por parte de los seres humanos en general y de los cristianos en particular hacia la IA no debe ser, entonces, ni la ingenuidad, ni la paranoia, sino el fomento al desarrollo de una regulación ética internacional seria, responsable y documentada alrededor de ella y su implementación, manteniendo el control humano sobre decisiones críticas y fomentando una cultura que valore lo humano por encima de lo útil considerado de un modo fríamente pragmático y utilitarista, haciendo de la tecnología un aliado y no un tirano. El futuro en relación con la IA no es, pues, necesariamente distópico, como lo visualizan los planteamientos pesimistas y paranoicos alrededor de la IA, ni tampoco utópico, como lo hacen a su vez los planteamientos ingenuamente optimistas alrededor de ella. Es recomendable renunciar a las utopías, pues por lo general los idealismos que aspiran a establecerlas aquí y ahora, en este mundo en sus actuales condiciones, terminan cayendo en distopías. Por eso, al margen del evangelio, el ser humano parece incapaz de imaginar siquiera utopías viables y es mucho más capaz de imaginar distopías muy verosímiles y viables, como lo hicieron George Orwell y Aldous Huxley respectivamente en sus correspondientes novelas 1984 y Un mundo feliz.

Éstas son, sin duda, mucho más verosímiles y cercanas como escenarios posibles impulsados por la inteligencia artificial, porque no requieren máquinas conscientes ni rebeliones de robots, sino sistemas de control, manipulación o adormecimiento social diseñados por los propios seres humanos y potenciados por tecnologías como la IA. Así, Orwell imaginó un mundo donde el Estado todo lo ve, todo lo controla, todo lo castiga. Aquí la IA encaja perfectamente como tecnología al servicio del “Gran Hermano”, término de connotaciones ominosas con el que se designaba la vigilancia omnipresente del estado sobre la sociedad, algo que la IA ya puede llevar a cabo hoy de manera por lo pronto más o menos focalizada mediante vigilancia masiva a través de cámaras, micrófonos, rastreo digital, reconocimiento facial, análisis emocional y predictivo de comportamiento, censura automática de contenidos y manipulación del lenguaje (a semejanza de la “neolengua” de Orwell) y la persecución de disidentes, enfatizando una vez más que en este caso, la IA no es el tirano, sino el instrumento del tirano humano. Lo más inquietante es que no se necesita una dictadura formal, sino que basta que una cultura prefiera la “seguridad” sobre la libertad para que algo así prospere incluso en democracias.

En cuanto a Huxley y su Mundo Feliz, allí se plantea otra distopía diferente, más sutil: la gente ya no es oprimida a la fuerza, sino con su consentimiento, bajo la condición de que se la mantenga anestesiada y entretenida hasta la sumisión (como sucede en The Matrix con quienes la prefieren y la asumen dócilmente, como escapismo contra la dura realidad). Porque la IA también puede contribuir a ese mundo, potenciando a nuevos niveles los comportamientos adictivos en redes sociales y realidades virtuales de entretenimiento personalizado que, como una dopamina digital, ofrecen placer inmediato con recompensa continua en medio de procesos mentales de mínima reflexión crítica e introspectiva y que, además, generan sus propios modelos de lenguaje e imagen en realidades virtuales alternativas de simulación como el metaverso, con distracción constante, incluyendo el control conductual a través de los grandes y masivos bancos de información o big data y su uso ya vigente en las estrategias de marketing comercial o ideológico y político, sin que haya aquí represión brutal, sino seducción continua. Para decirlo de manera sencilla, Orwell temía un mundo donde nos prohíban leer, mientras que Huxley temía un mundo donde nadie quiera leer. Y con IA, ambas cosas podrían suceder al mismo tiempo, en diferentes contextos.

A la luz de lo anterior, la IA no es el enemigo en sí, pero sí es un multiplicador del poder, bueno o malo por igual. Porque cuando el poder no está sometido a principios éticos, al bien común y a una visión clara de la dignidad humana, puede terminar construyendo distopías orwellianas o huxleyanas (o una combinación perversa de ambas). Así que estas distopías son factibles, pero no son inevitables y dependerá de nosotros, como humanidad, si la IA será usada para liberar o esclavizar, para elevar, dominar o adormecer. Los cristianos tenemos mucho que aportar para aterrizar estos desarrollos de forma realista con la visión bíblica e irreductible del ser humano como imagen de Dios, lo que implica que poseemos una dignidad intrínseca que no depende de nuestra productividad, utilidad o eficiencia y que debe traducirse en la responsabilidad y libertad moral de seres que son capaces de amar, elegir y obedecer asumiendo las consecuencias de sus actos y que están llamados a una relacionalidad esencial en el marco de la sociedad, pues no fuimos creados para la soledad individualista aislada, ni físicamente desconectada, ni tampoco para la sumisión a sistemas impersonales, sino para la comunión con Dios y con los demás.
En este orden de ideas la iglesia debe continuar advirtiendo que cuando el ser humano absolutiza su poder, se convierte en un dios falso condenado al derrumbamiento y al fracaso. La Torre de Babel es un ejemplo, guardadas las debidas proporciones y contextualizaciones, de que la tecnología usada con orgullo para “alcanzar el cielo” sin Dios, que es como la entienden muchos de los promotores y desarrolladores de la IA, acarrea de un modo u otro el juicio divino, frecuentemente teniendo simplemente que enfrentar las consecuencias nefastas e indeseables que no pudimos o no quisimos prever. En Apocalipsis, los sistemas de poder opresivos de “la bestia”, identificada tradicionalmente como el anticristo en contubernio con la gran ramera y el falso profeta, mezclan política, comercio y control religioso en un crisol que muy bien podría ser el de una inteligencia artificial muy poderosa puesta al servicio de sus intereses opuestos a Dios. Porque una IA al servicio de la soberbia humana puede convertirse en un nuevo ídolo: omnisciente, omnipresente, inapelable.

 No porque lo sea, sino porque podemos terminar tratándola como tal. Por eso los cristianos no podemos nunca idealizar la IA como solución mesiánica a los problemas del mundo (como algunos lo hacen), ni satanizarla como si fuera por sí misma condenable. Al fin y al cabo, la esperanza cristiana no está en la tecnología, sino en la venida del Reino de Dios, que traerá justicia, verdad y restauración definitiva. La IA no salvará al mundo, pues no puede hacerlo, ni tampoco se necesita que lo haga, pues Cristo ya lo hizo.

Los creyentes tenemos, pues, la responsabilidad de denunciar los abusos tecnológicos que oprimen al hombre, manipulan la verdad o deforman la humanidad, promoviendo desarrollos al servicio del bien común, la verdad y la dignidad y formando comunidades, como las iglesias, que resistan la deshumanización, vivan en la verdad y cultiven la esperanza. En este sentido, los cristianos tenemos una misión crítica y profética frente al uso de la IA, no como enemigos de la tecnología, sino como testigos de una humanidad redimida de la que ya formamos parte. El uso de la IA por parte de la iglesia en general y de los pastores y ministros del evangelio con especialidad, pasa por hacer de ella un compañero de diálogo esclarecedor, más que con ella, con nosotros mismos, como una especie de alter ego, y con Dios, por supuesto, ayudándonos a pensar mejor, más profundo y con más estructura, estimulando en nosotros la reflexión existencial y espiritual, la honestidad emocional y la expresión escrita de alta calidad, pues la IA no debe sustituir, sino potenciar nuestros procesos interiores a la vista del Dios que todo lo ve.

Porque el recurso de laicos y ministros a la IA, a la par con la oración y el diálogo interpersonal con Dios y la lectura reflexiva y comprensiva de la Biblia, puede facilitar una más auténtica e informada exploración espiritual, con autenticidad y valentía, aguzando nuestro discernimiento ético frente al mundo contemporáneo y humanizando el conocimiento, con empatía y profundidad, pudiendo hacer de la IA un espacio de acompañamiento para la conciencia y el alma y no solo para la mente, con sus procesos lógicos y racionales en los que la IA puede aportarnos mucho y en los que de un modo u otro, también se fundamenta la espiritualidad. En este propósito, no debemos privilegiar lo que la IA puede hacer, sino lo que nosotros estamos viviendo, pensando, elaborando y escribiendo, respetando nuestra propia voz dirigida a Dios, junto con nuestra historia, nuestras decisiones y nuestros tiempos, sin caer en la manipulación facilista, ni en la dependencia de la IA, sino en una interacción responsable y lúcida con esta poderosa, pero siempre limitada herramienta, de modo que estemos en condiciones de identificar cuándo deja de ayudarnos y empieza a ocupar un lugar que no le corresponde, exhibiendo la suficiente lucidez y formación como para discernirlo y corregirlo. 

Porque la IA puede estar en legítimas condiciones de “sustituir” a un pastor en su función de “creador de contenidos”, llámese sermón, enseñanza o asesoría pastoral, en cuanto a la redacción más rápida y pulida y en lo que tiene que ver con la corrección y el estilo, en especial si no se es todo lo elocuente que se desearía, ofreciendo citas, referencias y estructuras pulidas en la expresión e incluso simulando emociones y profundidad retórica. Pero al no tener la vivencia de fe que únicamente es posible, no por nuestra mayor o menor inteligencia, conocimiento o información; sino por nuestra personal comunión con Dios, nuestra conciencia moral, nuestro autoconocimiento, nuestra individualidad y la convicción de ser quienes somos en relación con Dios y los demás; carece por lo mismo de historia, de memoria, de dolor, de lucha interior. El ser humano, el creyente, ora y habla desde la herida, la duda, el consuelo buscado, ya sea que lo encuentre o le sea elusivo, mientras que la IA sólo articula palabras desde un frío y lógico patrón aprendido, sin la experiencia del sufrimiento ni la redención. 

El creyente sabe (y todo ser humano también lo sabe, incluso al margen de la fe) aunque no siempre logre articularlo y expresarlo con la claridad y precisión deseada, lo que es ganar, acertar, ser redimido, perdonado y renovado y también lo que es perder, fallar, envejecer, desmayar, recuperar fuerzas y sentir el silencio de Dios, mientras que la IA solo puede describir todo eso desde afuera, como si fuera alguien a quien se lo han contado, pero nunca lo ha vivido. Porque el alma no se fabrica, se forja y se acrisola. La profundidad de lo humano, al igual que la Biblia, no está en el texto en sí mismo que pretende contarlo y explicarlo, sino en el proceso que lo gesta y lo arranca del alma.

Sólo teniendo esto en cuenta podremos sortear el peligro, de por sí deshonesto, de que nuestros contenidos queden más pulidos, pero menos encarnados. De que la emoción se vuelva mera retórica y de llegar a preferir la eficiencia sobre la autenticidad. Por eso, el pastor, el maestro o el evangelista esforzado e íntegro no serán nunca sustituibles a favor de la IA, pues Dios es la garantía de que así sea, ya que Él sabe bien quien vivió la oración, quien ha caminado la noche oscura, quien ha escrito o pensado desde la fe rota y la esperanza débil, pero real. Y eso marca toda la diferencia. Aun si las palabras de la IA pudieran parecer más “perfectas”, las del creyente y ministro del evangelio son más verdaderas, y Dios —y el alma que busca a Dios— siempre sabe notar esa diferencia.



---------------------------------

Arturo Rojas. Escritor y conferencista de temas cristianos en defensa de la fe y la sana doctrina, autor de libros como Mensajes de Dios, Creer y pensar, Creer y razonar y Creer y comprender, que da nombre a su blog personal creerycomprender.com y a su ministerio.








Comentarios

Entradas populares de este blog

LA IGLESIA DE JESÚS SHINCHEONJI | Manuel Díaz Pineda

  LA IGLESIA DE JESÚS SHINCHEONJI,  EL TEMPLO DEL TABERNACULO DEL TESTIMONIO (SCJ). También se le conoce como Iglesia Nuevo Cielo y Nueva Tierra. El grupo también ha sido llamado "religión de la Nueva Revelación". Fundador:  Lee Man-Hee, nació el 15 de septiembre de 1931 en el pueblo de Punggak del distrito de Cheongdo en la Provincia de Gyeongsang del norte (zona ocupada por los japoneses y ahora parte de la República de Corea del Sur), se crió en una familia campesina. En 1946, estuvo entre los primeros graduados de la escuela primaria pública de Punggak, después de que los japoneses abandonaron Corea.  Lee no recibió ninguna educación superior, era un evangelista autodidacta y fue soldado  de la 7.ª División de Infantería del ejército de Corea del Sur luchando en primera línea durante la Guerra de Corea (1950-1953). Cuando terminó la guerra, se instaló en su pueblo natal como agricultor. Aunque su biografía la engorda diciendo que es descendiente...

Guía práctica para escribir una exégesis

  Muchas veces nos acercamos al texto bíblico con prejuicios o con ideas ya formuladas acerca de lo que el texto supuestamente quiere decir. Para un estudio serio del texto, debemos, en lo posible, abrirnos al texto, despojarnos de esos prejuicios y tratar de extraer de las Escrituras el mensaje revelado por Dios.  La Biblia no se interpreta sola. Debemos interpretarla. Además de una lectura orante o devocional, debemos hacer una lectura seria y profunda, una lectura bien estudiada, en otras palabras, una exégesis.  Acá les compartimos, traducida del inglés, una guía para la exégesis bíblica.