¿Inteligencia artificial? - posibilidades y riesgos

Michael Koch

La inteligencia artificial puede facilitar o incluso sustituir por completo muchos procesos de trabajo y tareas rutinarias. Pero sus posibilidades aparentemente ilimitadas también plantean algunas cuestiones éticas importantes —presentamos aquí una evaluación desde una perspectiva cristiana.

En estos días se habla mucho sobre ChatGPT, una nueva aplicación de inteligencia artificial. Técnicamente es solo un motor de búsqueda mejorado que combina sus resultados en un texto generado desde cero. Este texto, que se genera en respuesta a una pregunta del usuario, no es un plagio, sino una creación única, aunque sin intervención de una autor humano. En términos de lenguaje, algunas de las explicaciones todavía parecen un poco toscas, pero eso seguramente se mejorará en versiones posteriores.

Numerosas áreas de aplicación
La inteligencia artificial se utiliza desde hace varios años, y en gran medida pasa desapercibida para muchos usuarios de informática. La inteligencia artificial ayuda, por ejemplo, en la administración a realizar trabajos rutinarios. Puede comprobar la verosimilitud de declaraciones juradas y compararlas con información de años anteriores. El funcionario que procesa estos formularios puede entonces limitarse a controlar los resultados o investigar información marcada como cuestionable. El software de reconocimiento facial, como el que se utiliza para comprobar datos personales en los aeropuertos, utiliza inteligencia artificial. Los programadores realizan trabajos rutinarios mediante inteligencia artificial, al igual que los químicos. La inteligencia artificial también se utiliza en los vehículos sin conductor.

Oportunidades en la producción de textos
Para cualquiera que esté involucrado de algún modo en la producción de textos, programas ­como ChatGPT son una ayuda técnica que puede acortar significativamente la búsqueda en internet en el futuro. Por un lado, esto facilita considerablemente el trabajo. Por otro, esto aumenta la presión profesional, porque a partir de ahora se espera que con dicha ayuda puedas enviar un texto más rápidamente que antes. En cualquier caso, hay que confiar en la selección de posibles fuentes por parte del programa, que en casos individuales puede resultar bastante sesgada. También existe el riesgo de que el programa valore excesivamente aquellas opiniones que se expresan con especial frecuencia o de manera destacada, reforzando así aún más el sesgo. ChatGPT y programas similares pueden informar cuáles son sus fuentes utilizadas si uno lo solicita, lo que por supuesto ayuda a la hora de evaluar los resultados. Sin embargo, se requieren sólidos conocimientos especializados para poder evaluar si las personas, revistas y libros citados son actuales, relevantes y equilibrados o cuáles aspectos pueden haberse omitido.

Sobre todo los estudiantes indolentes o periodistas con poco tiempo recurrirán a programas como ChatGPT para tener un resultado rápido, pero no saben cómo surgió la opinión expresada ni qué tan creíble es. En numerosas consultas individuales se ha demostrado que los programas de Chat proporcionan información errónea. En las primeras versiones de ChatGPT, por ejemplo, el elefante era nombrado como el mamífero más grande y a Donald Trump ya se le atribuyeron dos mandatos como presidente de Estados Unidos. Estos errores se notan rápidamente; pero las declaraciones menos obvias también pueden contener información falsa que no será reconocida inmediatamente como tal.

El que desea utilizar ChatGPT con sensatez, debe formular preguntas específicas y bien consideradas. Por ejemplo, si un teólogo quiere saber cuándo y quién escribió el Evangelio de Juan, solo se le dará la respuesta histórica crítica de la teología moderna. Por lo tanto, debería formular su pregunta más precisa y consultar sobre la “autoría del Evangelio de Juan desde el punto de vista evangélico” o “según las diversas interpretaciones”. Luego tiene que confiar en que los datos que le interesan aparezcan lo suficientemente arriba en el banco de datos de ChatGPT, como para que los mencione en el texto generado para él.

Riesgos
Por supuesto, en un caso ideal, los programas con inteligencia artificial como ChatGPT facilitan enormemente la investigación y la preparación de presentaciones. Sin embargo, es precisamente este proceso, a menudo laborioso, que uno evita al usar la Inteligencia Artificial (AI), pero que es absolutamente necesario para que la persona que comprenda la diversidad y complejidad de su tema, incluidos todos los argumentos y contraargumentos relevantes.

Los principales problemas con programas como ChatGPT son: 

1. El inevitable aumento del plagio indirecto, que es mucho más difícil de detectar.

2. La disminución de la capacidad de analizar y evaluar cuestiones más complejas por uno mismo. 

Además, puede suceder rápidamente que se va perdiendo el conocimiento o el dominio de la información factual necesaria para una evaluación correcta.

Como sabemos que, en última instancia, las nuevas tecnologías no se pueden prohibir, queremos integrarlas con sensatez y de manera productiva. Por ejemplo, se espera que los estudiantes revisen y corrijan los ensayos producidos por ChatGPT. Los políticos de la educación repiten como un mantra que el conocimiento fáctico ya no es necesario. Ya no es necesario saber memorizar las cosas, sino evaluarlas. Sin embargo, debe quedar claro que solo aquellos que tienen un amplio conocimiento fáctico pueden detectar errores y evaluar conclusiones de forma fiable. Cuanto más utilicen los estudiantes ChatGPT y ofertas similares, menos puntos de referencia de su propia experiencia poseerán para poder comprobar que los resultados son fidedignos. Si no conoce los hechos exactamente, no podrán verificar ni corregir de manera confiable los textos producidos por ChatGPT. Los estudiantes menos motivados ni siquiera pasarán por el tedioso y largo proceso de aprendizaje y evaluación porque pueden dejar que la IA prepare su trabajo basado en los ricos recursos de Internet.

Actualmente, algunos profesores todavía esperan con poder distinguir entre ensayos reales y aquellos creados con inteligencia artificial, basándose en la elección de palabras y el estilo. En el futuro, a los escolares y estudiantes les resultará mucho más difícil aprender y practicar consideraciones, evaluaciones y pruebas ellos mismos, porque estos procesos, que son absolutamente importantes para el pensamiento y la investigación, serán dictados de manera mucho más cómoda por la inteligencia artificial.

Un argumento importante en contra de la euforia prematura alrededor de ChatGPT es que podrá formular siempre nuevos textos, pero no se crea nada que sea realmente nuevo. Las nuevas tecnologías acelerarán significativamente la producción de nuevos contenidos multimedia. Finalmente se presentarán a la audiencia constantemente nuevas contribuciones que simplemente reformulan la información ya conocida, pero de más fácil acceso. Las ideas y opiniones de muchos usuarios de internet se irán polarizando cada vez más porque los programas de análisis recomiendan repetidamente publicaciones que corresponden a los intereses y opiniones que ya han expresado en internet. Esto posiblemente se verá reforzado aún más por ChatGPT.

Aparte de plagio, escritores fantasmas y resultados de investigaciones erróneos, la inteligencia artificial ofrece otra forma de replicar logros falsos en el campo de la ciencia. Debido a que científicos confían en los resultados, a veces poco confiables, de otros y los incluyen en sus trabajos, existe el riesgo de que los “resultados de investigación” dudosos se potencien; y desde luego, influirán después en la toma de decisiones, tanto de particulares como de políticos. Además, programas como ChatGPT podrían aumentar aún más la ya difícilmente manejable avalancha de publicaciones científicas porque facilitan cada vez más la producción de nuevos artículos. Esto también podría frenar y desalentar en lugar de estimular el trabajo científico eficaz.

Las empresas detrás de ChatGPT probablemente se cuidarán de asumir la responsabilidad por las opiniones y afirmaciones realizadas por su programa. Al no tener una ética y moral propias, siempre producirá también opiniones falsas o tendenciosas. Las opiniones peculiares o desafiantes, así como evaluaciones propias y enfoques específicos en la presentación de temas, posiblemente serán desestimados por el algoritmo e ignorados. Con los programas basados en inteligencia artificial, será en el futuro aún más fácil promover masivamente determinadas opiniones o suprimirlas. Las empresas o los Estados pueden ajustar el programa de chat correspondiente a su antojo y solo permitir sitios web avalados como fuentes para los resúmenes generados artificialmente. La verdad y la búsqueda de la verdad estarán entonces aún más separadas del libre albedrío de cada usuario que antes.

Es casi seguro que la IA prevalecerá y se perfeccionará aún más, con todos los efectos secundarios imaginables. A ello contribuirán los intensos debates actuales, al igual que la competencia entre los grandes gigantes tecnológicos como Alphabet, Microsoft y Meta.

Usar con criterio
Al utilizar ChatGPT, surgen importantes cuestiones éticas y tecnológicas. En ámbitos de la vida en los cuales esto parecía imposible ahora las personas están renunciando a su autonomía y a su visión individual. Esto también significa una disminución en la responsabilidad individual. ¿Quién será responsable del suicidio de un adolescente, del surgimiento de una nueva teoría de conspiración, o incluso, del inicio de una guerra debido a un mensaje producido por ChatGPT? Los programas no tienen conciencia; la mentira y la verdad como variables morales no existen para ellos. Las posibles consecuencias derivados de su información juegan un papel secundario para la inteligencia artificial.

Es solo cuestión de tiempo que los textos generados artificialmente no solo reduzcan significativamente las capacidades de aprendizaje y evaluación de las personas, sino que además serán causa de más irritación, falsificaciones y conflictos en la, ya de por sí, vertiginosa comunicación por internet. Por un lado, se trata de un proceso que se refuerza a sí mismo, pero por otro, por supuesto, existen suficientes razones criminales e ideológicas para utilizar esta tecnología para fines propios.

Especialmente en vista del rápido desarrollo de las posibilidades técnicas, es necesario plantear y hallar respuestas a las arduas cuestiones sobre los efectos, la legitimidad ética y el control sobre estas aplicaciones. Si estas nuevas tecnologías no se controlan adecuadamente y si no se tienen en cuenta las posibles consecuencias, lo más probable es que causen daños considerables.

Cuantos más programas informáticos recopilan, recombinan y evalúan información, más importantes se vuelven los valores y cosmovisiones subyacentes. Por eso la deconstrucción de verdades universales y absolutas en nuestra era posmoderna se convierte en un problema aún mayor. Quien renuncia a la verdad, aparte de la suya propia, que no tiene fundamento absoluto, carece cada vez más de la posibilidad de analizar y evaluar de manera significativa cualquier información y las conclusiones abstraídas de ella.

En el debate sobre la inteligencia artificial, los cristianos no deberían caer en el habitual rechazo de todo lo nuevo, pero tampoco ignorar los claros problemas éticos que esta tecnología trae consigo. Se nos plantean interrogantes totalmente nuevas en cuanto a la autoría, la verdad y la responsabilidad de una opinión publicada o de un texto producido para la escuela, la universidad o el trabajo.

En principio, se podrían usar aplicaciones como ChatGPT para escribir cartas de consejería o preparar sermones o charlas para la reunión de jóvenes. Sin embargo, el cristiano espiritual no debe olvidar que la inteligencia artificial no puede reemplazar la preparación personal con el texto bíblico, ni la búsqueda de la guía del Espíritu Santo. Además, el obrero responsable conoce la situación puntual de sus oyentes y sabe cómo abordarla. Ningún programa de chat puede reemplazar esto, incluso si la redacción sugerida suena teológicamente correcta. El ministerio cristiano es más que simplemente resumir hechos teológicos relevantes.

No se debe subestimar el peligro que esconde el uso de ChatGPT de repetir mentiras directas o indirectas, o de dar la impresión equivocada de haber investigado el tema. El obrero cristiano tiene, sin embargo, una clara obligación bíblica que requiere trabajo intelectual. El Señor Jesús dice “…que en el día del juicio todos tendrán que dar cuenta de toda palabra ociosa que hayan pronunciado.” (Mateo 12:36 nvi). Debemos poder respaldar personalmente y con convicción las palabras y opiniones que expresamos. “Por lo demás, hermanos, todo lo que es verdadero, todo lo honesto, todo lo justo, todo lo puro, todo lo amable, todo lo que es de buen nombre; si hay virtud alguna, si algo digno de alabanza, en esto pensad” (Filipenses 4:8). 

Además, en vista de las crecientes reinterpretaciones virtuales de la verdad, como cristianos, debemos permitir que Dios corrija constantemente los valores y normas fundamentales de nuestro pensamiento: “No se amolden al mundo actual, sino sean transformados mediante la renovación de su mente. Así podrán comprobar cómo es la voluntad de Dios: buena, agradable y perfecta” (Romanos 12:2 nvi).

La inteligencia artificial facilita el trabajo
Muchos celebran la inteligencia artificial como un inmenso avance, y no sin razón. La mayoría de los programas informáticos utilizados hasta ahora solo podían procesar lo que se les entregaba. No importaba si eran cálculos o producción de texto, el marco de trabajo siempre fue relativamente delimitado.

La inteligencia artificial, por otro lado, no solo hace trabajos estúpidos. Escribe presentaciones, textos publicitarios o códigos de programación en cuestión de segundos. Es capaz de tomar decisiones que no son precisamente predecibles. Incluso puede realizar tareas creativas, como crear pinturas o componer piezas musicales. La inteligencia artificial puede recopilar información en internet, seleccionarla y resumirla en nuevas formulaciones. Ya puede escribir artículos periodísticos, también libros y desarrollar nuevos juegos de computadora. Esto está cambiando profundamente el mundo del trabajo y el lugar que los seres humanos ocupan en el mismo. Por el momento, todavía se necesita personas que puedan intervenir en estos procesos y corregirlos si es necesario.

Sin embargo, la inteligencia artificial sustituye cada vez más el pensamiento y la toma de decisiones de los seres humanos. En algunos casos, esto es útil porque las computadoras generalmente no permiten que las emociones y el interés personal influyan tanto en sus decisiones como lo hacen los humanos. También suelen reaccionar mucho más rápido. Los procesos asistidos por computadoras en automóviles, aviones y trenes ya están reduciendo significativamente la probabilidad de accidentes. Las computadoras y los sensores no pueden cansarse ni distraerse. La inteligencia artificial ayuda a realizar de forma más fácil y más rápida tareas rutinarias y aburridas.

La inteligencia artificial requiere sólidos conocimientos especializados
Para un experto en su área de trabajo, la ayuda recibida de la inteligencia artificial puede resultarle muy útil, ya que a menudo permite reconocer errores y malas interpretaciones en seguida. Pero quien aún no tenga tantos conocimientos se verá tentado a acortar, por medio de la inteligencia artificial, el arduo camino para adquirir estos conocimientos. Desde una perspectiva superficial, parece que logra el mismo resultado ahorrando tiempo y costos; pero no puede estar seguro de eso, porque carece del conocimiento para poder evaluar las decisiones de la inteligencia artificial.

Cuando las decisiones importantes dependen de sistemas informáticos impersonales, no solo da miedo, sino que, francamente, también puede ser peligroso. Las personas dependen cada vez más de información y decisiones recopilados y evaluados por programas informáticos.

La inteligencia artificial debe ser controlada
En Google, Geoffrey Hinton fue durante mucho tiempo responsable del desarrollo de la inteligencia artificial. Se le considera un pionero en este ámbito a nivel mundial. Desde hace varios años, Hinton se centra en investigar los riesgos de la inteligencia artificial. En este contexto, también concedió entrevistas a importantes medios de comunicación como la BBC y el New York Times. El científico predice que estas aplicaciones pronto serán más inteligentes que las personas que las utilizan. El software es capaz de procesar grandes cantidades de datos en un corto período de tiempo. Además de las claras ventajas, Hinton también señala los peligros de un uso generalizado de la inteligencia artificial. Una vez que ella genere datos y mensajes a mayor escala, ya nadie podrá controlarlos ni verificarlos. Es solo cuestión de tiempo que la inteligencia artificial se utilice específicamente para la desinformación y la manipulación, las cuales serán aún más difíciles de detectar como tales que cuando se utiliza la tecnología convencional.

Junto con el multimillonario tecnológico Elon Musk, Hinton hizo un llamado público a una pausa en el desarrollo y uso de la inteligencia artificial. Dice, entre otras cosas: “Los sistemas de inteligencia artificial, con una inteligencia que rivaliza con los humanos, pueden plantear riesgos importantes para la sociedad y la humanidad. […] Solo deberían desarrollarse potentes sistemas de IA cuando estemos seguros de que sus efectos son positivos y sus riesgos manejables”.

Por ello, en marzo de 2023, el Consejo Ético alemán pidió normas claras para el uso de la inteligencia artificial. Debido a que estos sistemas no son personas y no tienen razón ni ética, permitirles tomar decisiones importantes o interpretar información para el público es altamente problemático. Los científicos exigieron que la inteligencia artificial no menoscabe la libertad y el desarrollo humanos.

La inteligencia artificial tiene dificultades para distinguir entre información real y falsa o reconocer datos personales sensibles como tales. No tiene conciencia y no conoce conceptos de ética o verdad. En cualquier caso, en el futuro debería haber formas fáciles y efectivas de apelar contra las declaraciones y decisiones tomadas por la inteligencia artificial si uno se siente tratado injustamente por ella.

La inteligencia artificial está destruyendo empleos
Algunos estudios suponen que el uso de la inteligencia artificial y la robótica automatizará muchos puestos de trabajo y, por tanto, provocará grandes pérdidas de empleo. Esto afectará especialmente a actividades con un alto nivel de rutina, en producción, administración, ventas, transporte y logística. Dañará particularmente a aquellos sectores de la población con niveles más bajos de educación y salarios. De este modo, la inteligencia artificial profundizará aún más la división social de la sociedad.

La inteligencia artificial hará que en un futuro próximo, muchos puestos de trabajo en la administración y la consultoría estándar sean superfluos. El grupo tecnológico estadounidense IBM ya ha anunciado que quiere salvar el 30% de todos los puestos administrativos en los próximos cinco años y sustituirlos por inteligencia artificial, por un total de 7,800 puestos laborales. Esto ahorrará dinero y aumentará las ganancias. Sin embargo, estos anuncios son solo el comienzo. Los posibles usos de la inteligencia artificial están aumentando rápidamente. Ya puede sustituir, al menos parcialmente, a traductores, diseñadores gráficos, pero también a periodistas y otros productores de textos e imágenes. En el futuro, no solo sustituirá a los puestos poco cualificados, sino también a los empleados bien formados y preparados. Por un lado, esto evitará un molesto trabajo rutinario. Sin embargo, no deja de ser problemático que en el futuro cada vez más solicitudes o exámenes sean procesados por inteligencia artificial, con la que difícilmente se pueda negociar o discutir.

La inteligencia artificial conduce a la pereza intelectual
A muchas personas les resulta difícil comprender cómo funcionan los sistemas de inteligencia artificial, y por esto confían ciegamente en la información y los resultados que allí se proporcionan. Esto conduce a una creciente dependencia y falta de libertad. Cualquiera que confíe a largo plazo en sistemas de inteligencia artificial perderá, con el tiempo, la capacidad de recopilar y evaluar información por sí mismo y sacar conclusiones adecuadas.

Los datos y declaraciones generados por la inteligencia artificial también regresan a internet y, a su vez, influyen en todas las investigaciones futuras realizadas por personas y programas informáticos. Debido a que los periódicos, las revistas y los científicos utilizan cada vez más la inteligencia artificial, en el futuro será bastante difícil identificar claramente quién está detrás de qué declaraciones, con qué experiencia y responsabilidad, o de dónde provienen realmente los hechos supuestamente confiables.

La inteligencia artificial ofrece un gran potencial de uso indebido
La inteligencia artificial socava elegantemente los derechos de autor sobre logros creativos y científicos. Los datos disponibles en internet pueden utilizarse sin atribución ni pagos de licencia y reutilizarse comercialmente en una forma ligeramente modificada. Artistas, escritores y científicos temen no recibir una compensación adecuada por su trabajo, que constituye la base de datos de la inteligencia artificial en muchas aplicaciones.

La inteligencia artificial también hace que sea mucho más fácil recopilar y evaluar estratégicamente datos personales de los usuarios de computadoras. Es casi imposible impedir eficazmente el acceso a conjuntos de datos confidenciales o protegidos, o documentarlos de forma segura posteriormente. Mediante la evaluación específica de grandes cantidades de datos, se pueden crear y utilizar indebidamente, con fines comerciales, los perfiles familiares, de salud, financieros o ideológicos.

Con unas pocas muestras de voz o escritas, la inteligencia artificial puede producir declaraciones que suenan individuales o frases escritas que no pueden ser reconocidas como falsas a primera vista, ni siquiera por los familiares. De este modo, hoy en día ya es posible crear llamadas telefónicas, cartas o firmas que parecen auténticas e imponer declaraciones falsas a otras personas. Esto puede destruir relaciones y carreras, dando lugar a estafas.

La mayoría de los sistemas de inteligencia artificial están controlados por empresas y Gobiernos que persiguen sus propios intereses de lucro o poder. No se puede garantizar que utilizarán correctamente los datos investigados y que no influirán en los resultados para promover sus propios intereses. En el peor de los casos, se pueden excluir determinados datos u opiniones, o utilizar la inteligencia artificial para colocar discretamente información falsa en tantos lugares como sea posible.

La pregunta de quién será el responsable en un accidente relacionado con la conducción autónoma de un vehículo o en un tratamiento médico decidido por la inteligencia artificial, no se puede responder de manera satisfactoria. Por supuesto, la inteligencia artificial también puede utilizarse en sistemas de armas autónomos o con fines propagandísticos. En teoría, la responsabilidad de los asesinatos y de la desinformación recaería entonces en un sistema informático anónimo.

Debido a que la inteligencia artificial no está sujeta a una ética o responsabilidad superior, en última instancia podría tomar decisiones absurdas o socialmente dañinas. En el futuro, estos sistemas autónomos podrían, por ejemplo, llegar a la conclusión de que la mejor manera de minimizar su sufrimiento o reducir los costos es acabar con la humanidad, o al menos con los ancianos y los enfermos.

La inteligencia artificial no debe sustituir la responsabilidad humana
Según la Biblia, una persona no puede dejar la responsabilidad de sus acciones y palabras en manos de un sistema informático anónimo —ella debe dar cuenta a Dios. “Hermanos, no os hagáis maestro muchos de vosotros, sabiendo que recibiremos mayor condenación. Porque todos ofendemos muchas veces. Si alguno no ofende en palabra, este es varón perfecto… “ (Santiago 3:1, 2).

A la hora de seleccionar personas para cargos de responsabilidad en la iglesia, se requieren cualidades de carácter particulares, que los sistemas de inteligencia artificial no pueden tener, por más que tomen decisiones cada vez más importantes en el futuro. “Pero es necesario que el obispo sea irreprensible, marido de una sola mujer, sobrio, prudente, decoroso, hospedador, apto para enseñar; no dado al vino, no pendenciero, no codicioso de ganancias deshonestas, sino amable, apacible, no avaro; que gobierne bien su casa, que tenga a sus hijos en sujeción con toda honestidad” (2 Timoteo 3:2-4). Las calificaciones aquí mencionadas para un liderazgo y trabajo pastoral responsable combinan conocimientos y capacidad analítica con experiencia y perseverancia en la vida práctica. Estos aspectos complejos no pueden ser sustituidos por la inteligencia artificial. Los cristianos pueden aprovechar las oportunidades que ofrece la AI si también son conscientes de sus limitaciones y peligros.

ContáctenosQuienes somosPrivacidad y seguridad