8 riesgos y peligros de esta tecnología (IA) que se deben conocer.
A medida que la Inteligencia Artificial (IA) se vuelve más sofisticada y generalizada, las voces
que advierten sobre los peligros potenciales que ella conlleva se hacen más fuertes.
“El desarrollo de la inteligencia artificial podría significar el fin de la raza humana”,
según Stephen Hawking.
El arriba mencionado, renombrado físico teórico, no está solo con este pensamiento.
Elon Musk, fundador de Tesla y Space X, expresó en la conferencia tecnológica SXSW
“La IA, me asusta mucho. Es capaz de mucho más de lo que casi nadie sabe, y la tasa
de crecimiento es exponencial”.
Ya sea por la creciente automatización de ciertos trabajos, los algoritmos con sesgos raciales
y de género o las armas autónomas que funcionan sin supervisión humana, por nombrar solo
algunos elementos de uso, la inquietud abunda en varios frentes. Y todavía estamos en las
primeras etapas de lo que la IA es realmente capaz de hacer.
Nadie sabe de qué es capaz y de qué no lo es. Nos conduce a una situación en la que
literalmente no se puede creer en lo que vemos y escuchamos; y al momento de analizarla no
podemos confiar, usando lo que históricamente hemos considerado como la mejor evidencia
posible para hacer una análisis.
Los regímenes autoritarios ya usan Inteligencia Artificial y la continuarán usando. La pregunta
es, ¿cuánto invade a los países occidentales y a sus democracias y qué restricciones se le
pondrán a la población?
A medida que la IA se vuelve más sofisticada y generalizada, las voces que advierten sobre
los peligros potenciales de su uso indiscriminado se hacen más fuertes.
LOS 8 PELIGROS DE LA INTELIGENCIA ARTIFICIAL (AI)
Las preguntas sobre quién está desarrollando la IA y con qué fines, hacen que sea aún más
esencial comprender sus posibles desventajas.
A continuación, veremos más de cerca los posibles peligros de la Inteligencia
Artificial y cómo gestionar sus riesgos.
- PERDIDAS DE EMPLEO DEBIDO A LA AUTOMATIZACION DE LA INTELIGENCIA
ARTIFICIAL (IA).
En Estados Unidos la automatización de trabajos impulsada por la IA, es y ha sido una
preocupación apremiante a medida que la tecnología se adopta en industrias como la
banca, marketing, fabricación y atención médica, por mencionar algunas.
Las cifras indicaban que entre el 2020 y el 2025 se perderían aproximadamente ochenta y
cinco millones de puestos de trabajo (hoy en el 2023 siguen en esa tendencia) debido a la
automatización, siendo las minorías raciales y menos preparadas las más afectadas.
A medida que los robots de IA se vuelvan más inteligentes y diestros, las mismas tareas
requerirán menos humanos y con ello aumentará la carga social al Estado y si bien es cierto
que la IA creará varios millones de nuevos puestos de trabajo para 2025, muchos
empleados no tendrán las habilidades necesarias para estos roles técnicos y podrían
quedarse atrás si las empresas no mejoran las habilidades de su fuerza laboral.
Mientras un aumento en la automatización en las áreas de prestaciones y servicios,
requerirá que el nuevo trabajo que busquen las personas necesite de mayor educación,
capacitación o tal vez incluso talentos intrínsecos (habilidades interpersonales o creatividad
realmente sólidas) que quizás ellas no posean, porque siendo honestos, al menos hasta
ahora, las computadoras no son muy buenas en ese ámbito.
Incluso las profesiones que requieren títulos de postgrado y capacitación adicional posterior
a la universidad o Colegio Técnico, no son inmunes al desplazamiento de la IA. Areas como
el Derecho y la Contabilidad NO están preparadas para una toma de control de la IA, de
hecho algunas de ellas bien podrían ser diezmadas. La IA ya está teniendo un impacto
significativo en la Medicina, el Derecho y la Contabilidad son los siguientes y el primero
estaría listo para “una reorganización masiva”.
Piense en la complejidad de los contratos, y realmente profundice y comprenda lo que se
necesita para crear una estructura de trato perfecta.“Son muchos abogados que leen mucha
información: cientos o miles de páginas de datos y documentos. Es muy fácil perderse de
cosas. Entonces, la IA que tiene la capacidad de analizar y entregar de manera integral el
mejor contrato posible para el resultado que está tratando de lograr probablemente
reemplazará a muchos abogados corporativos. - MANIPULACION SOCIAL MEDIANTE ALGORITMOS DE INTELIGENCIA
ARTIFICIAL (IA)
Un informe del 2018 sobre los posibles abusos de la IA, enumera la manipulación social
como uno de los principales peligros de la inteligencia artificial. Este temor se ha
convertido en realidad a medida que los políticos confían en plataformas para promover
sus puntos de vista, un ejemplo reciente en Chile ha sido el proceso vivido a contar de
Octubre del 2019 y especialmente el “Acuerdo por la Paz” y su subsiguiente Proceso
Plebiscitario que terminó con un RECHAZO al cambio constitucional en septiembre del
2022.
Otro ejemplo claro de manipulación en Redes Sociales (RRSS), es TikTok que se ejecuta
en un algoritmo de Inteligencia Artificial y que satura el “feed” (Bandeja de Entrada) de un
usuario con contenido relacionado con la información que ellos han visitado anteriormente
en la plataforma. Las críticas a la aplicación apuntan a este proceso y a la falla del
algoritmo para filtrar contenido dañino e inexacto, lo que genera dudas sobre la capacidad
de TikTok para proteger a sus usuarios de medios peligrosos y engañosos.
Los medios de comunicación y las noticias en línea se han vuelto aún más turbios a la luz
de las falsificaciones profundas que se infiltran en las esferas políticas y sociales. La
tecnología facilita el reemplazo de la imagen de una figura con otra y lo mismo pasa con
los videos. Como resultado, los manipuladores sociales, tienen otra vía para compartir
información errónea y propaganda mal intencionada, creando un escenario donde puede
ser casi imposible distinguir entre noticias confiables y las falsas. - VIGILANCIA SOCIAL CON TECNOLOGÍA DE INTELIGENCIA ARTIFICIAL (AI)
Además de su amenaza más existencial, la IA afectará negativamente la privacidad y la
seguridad. Un buen ejemplo es el uso en China y otros países, de la tecnología de
reconocimiento facial en oficinas, escuelas y otros lugares. Además de rastrear los
movimientos de una persona, el gobierno puede recopilar suficientes datos para
monitorear las actividades, relaciones y puntos de vista políticos de una persona pública o
privada.
Otro ejemplo son los departamentos de policía de EEUU, que adoptan algoritmos
policiales predictivos para anticipar dónde ocurrirán los delitos. El problema es que estos
algoritmos están influenciados por las tasas de arresto, que afectan de manera
desproporcionada a las comunidades de minorías, especialmente la afroamericana y la
latina. Luego, los departamentos de policía se duplican en estas comunidades, lo que
lleva a un exceso de vigilancia. Pregunto ¿las democracias autoproclamadas, podrán
resistirse a convertir la IA en un arma autoritaria? - SESGOS POR INTELIGENCIA ARTIFICIAL (IA)
Varias formas de sesgo que contiene la IA también son perjudiciales. El sesgo de la IA va
mucho más allá del género y la raza. Además de los datos y el sesgo algorítmico (el último
de los cuales puede «amplificar» el primero) debemos entonces recordar que la IA es
desarrollada por humanos, y los humanos están inherentemente sesgados.
Los investigadores de Inteligencia Artificial, son principalmente personas, que provienen de
ciertos grupos demográficos raciales, que crecieron en áreas socioeconómicas más
privilegiadas que la media, principalmente personas sin mayores necesidades. Son una
población bastante homogénea, por lo que realmente es un desafío pensar en términos
generales sobre los problemas mundiales.
Las experiencias limitadas de los creadores de Inteligencia Artificial pueden explicar por
qué la IA de reconocimiento de voz, a menudo no comprende ciertos dialectos y acentos.
Los desarrolladores y las empresas deben ser más cuidadosas para evitar recrear sesgos y
prejuicios poderosos que pongan en riesgo a las poblaciones minoritarias, raza y
educación. - AUMENTO DE LA DESIGUALDAD SOCIOECONÓMICA COMO RESULTADO DE LA
INTELIGENCIA ARTIFICIAL (IA)
Si las empresas se niegan a reconocer los sesgos inherentes e integrados en los
algoritmos de IA, pueden comprometer sus iniciativa de Igualdad, Diversidad e Inclusión, a
través del reclutamiento impulsado por Inteligencia Artificial.
La idea de que la IA puede medir los rasgos de un candidato a través de análisis faciales y
de voz todavía está contaminada por prejuicios humanos, lo que podría producir prácticas
de contratación discriminatorias, que algunas empresas están tratando de mejorar.
La creciente desigualdad socioeconómica, provocada por la pérdida de empleos impulsada
por la IA, es otro motivo de preocupación que revela los sesgos de clase en la forma en
que se aplica la IA.
Los trabajadores de nivel subtécnico y que realizan tareas más manuales y repetitivas
experimentarán caídas salariales, de hasta un 70 por ciento, debido a la automatización.
Mientras tanto, los trabajadores de mayores estudios y preparación técnica se
mantendrían prácticamente intactos, y algunos incluso disfrutarán de sueldos más altos.
Las afirmaciones radicales de que la IA de alguna manera ha superado las fronteras
sociales o ha creado más empleos no logran pintar una imagen completa de sus efectos.
Es crucial tener en cuenta las diferencias basadas en educación, clase y otras categorías.
De lo contrario, discernir cómo la IA y la automatización benefician a ciertos individuos y
grupos a expensas de otros se vuelve más difícil de entender. - DEBILITACIÓN DE LA ÉTICA Y LA BUENA VOLUNTAD POR LA INTELIGENCIA
ARTIFICIALl (IA)
Científicos, tecnólogos, periodistas y figuras políticas, incluso líderes religiosos, están
haciendo sonar la alarma sobre las posibles trampas socioeconómicas de la IA. En una
reunión del Vaticano en el 2019 titulada “El bien común en la era digital”, la Iglesia
Católica advirtió contra la capacidad de la IA para “circular opiniones tendenciosas y
datos falsos” y enfatizó las consecuencias de largo alcance al permitir que esta tecnología
se desarrolle sin la supervisión o restricciones adecuadas.
“Si el llamado progreso tecnológico de la humanidad se convirtiera en enemigo del
bien común, nos conduciría desafortunadamente hacia una regresión a la forma de
barbarie dictada por la ley del más fuerte”.
El rápido auge de herramientas en linea de IA conversacional, tales como, ChatGPT da
más sustancia a estas preocupaciones. Muchos usuarios han aplicado la tecnología para
evitar tareas de escritura, amenazando la integridad académica y la creatividad, usando
sitios como OpenAI, Beautiful.AI, WolframAlpha, Grammarly, EasyBib, Murf.AI, no les
explicaré lo que se puede hacer con ellas, ya que el uso y abuso sólo generan personas
más ignorantes, flojas y sin identidad propia, incapaces de trabajar y relacionarse con el
prójimo para agrandar el conocimiento, debido a que la IA les hace todo el trabajo.
“Algunos temen que, sin importar cuántas figuras poderosas señalen los peligros de
la inteligencia artificial, vamos a seguir empujando los límites si hay dinero para
ganar”.
La mentalidad es, “Si podemos hacerlo, debemos intentarlo; veamos qué pasa y si podemos
ganar dinero con eso, haremos una fortuna”. Pero esa mentalidad no es exclusiva de la
tecnología, ha estado sucediendo desde siempre y es la razón principal del por qué
debemos ser cuidadosos al aceptar innovaciones y más cuidadosos al dejar que ciertos
grupos sociales manipulen el algoritmo de IA. - ARMAS AUTÓNOMAS POTENCIADAS POR INTELIGENCIA ARTIFICIAL (IA)
Como suele ser el caso, los avances tecnológicos se han aprovechado con fines bélicos.
Cuando se trata de IA, algunos están dispuestos a hacer algo al respecto antes de que sea
demasiado tarde: en una carta abierta el 2016, más de 30 000 personas, incluidos
investigadores de IA y Robótica, rechazaron la inversión en armas autónomas impulsadas
por IA.
La pregunta clave para la humanidad hoy en día es ¿se debe iniciar una carrera
armamentista global de IA o evitar que comience?
“Si alguna potencia militar importante sigue adelante con el desarrollo de armas de
inteligencia artificial, una carrera armamentista mundial es prácticamente inevitable, y el punto
final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los
Kalashnikov del mañana”.
Esta predicción se ha hecho realidad en la forma de sistemas de armas autónomas letales,
que localizan y destruyen objetivos por sí mismos mientras cumplen con algunas
regulaciones. Debido a la proliferación de armas potentes y complejas, algunas de las
naciones más poderosas del mundo han cedido a la ansiedad y han contribuido a una guerra
fría tecnológica.
Muchas de estas nuevas armas plantean grandes riesgos para los civiles, pero el peligro se
amplifica cuando las armas autónomas caen en manos equivocadas.
Los Piratas Informáticos han dominado varios tipos de ataques cibernéticos, por lo que no es
difícil imaginar a un actor malintencionado infiltrándose en armas autónomas e instigando un
Armagedón absoluto.
Si no se controlan las rivalidades políticas y las tendencias belicistas, la inteligencia artificial
podría acabar aplicándose con las peores intenciones. - CRISIS FINANCIERAS PROVOCADAS POR ALGORITMOS DE INTELIGENCIA
ARTIFICIAL (IA)
La industria financiera se ha vuelto más receptiva a la participación de la tecnología de IA en
los procesos financieros y comerciales cotidianos. Como resultado, el comercio algorítmico
podría ser responsable de nuestra próxima gran crisis financiera en los mercados.
Mientras escribo este articulo, hoy 16 de marzo del 2023, Radio Cooperativa publicaba la
siguiente noticia y que no deja de ser preocupante:
Si bien los algoritmos de IA no se ven empañados por el juicio o las emociones humanas,
tampoco tienen en cuenta los contextos, la interconexión de los mercados y factores como la
confianza y el miedo humano. Estos algoritmos luego realizan miles de transacciones a un ritmo
vertiginoso, con el objetivo de vender unos segundos más tarde, para obtener pequeñas
ganancias. La venta de miles de operaciones podría asustar a los inversionistas para que
hicieran lo mismo, lo que provocaría caídas repentinas y una volatilidad extrema del mercado.
Instancias como la crisis financiera del 2008, iniciada en Estados Unidos por el mercado
inmobiliario y que después se expandió al resto del mundo, y donde, también los Fondos de
Pensiones manejados por las AFP en Chile perdieron cientos de millones de dólares al comprar
cuentas que la IA de aquel entonces mostraban como seguras y que terminaron afectando los
ahorros de cientos de miles de chilenos. También hoy en el 2023 con lo que está ocurriendo en
la caída de la Banca en Estados Unidos, nos sirven como recordatorios de lo que podría
suceder cuando los algoritmos felices del comercio se vuelven locos, independientemente de si
el comercio rápido y masivo es intencional o no.
Esto no quiere decir que la IA no tenga nada que ofrecer al mundo de las finanzas. De hecho,
los algoritmos de IA pueden ayudar a los inversionistas a tomar decisiones más inteligentes e
informadas en el mercado. Para eso las organizaciones financieras deben asegurarse de
comprender a cabalidad los algoritmos de IA y cómo esos algoritmos toman decisiones. Las
empresas deben considerar si la IA aumenta o disminuye su confianza, antes de introducir la
tecnología para evitar avivar los temores entre los inversionistas y crear un caos financiero.
MITIGACION DE LOS RIESGOS DE LA INTELIGENCIA ARTIFICIAL (IA)
La IA todavía tiene numerosos beneficios, como la organización de datos de salud y la
fabricación de vehículos autónomos. Sin embargo, para aprovechar al máximo esta
tecnología prometedora, algunos argumentan que se necesita mucha regulación.
“Normalmente no soy un defensor de la regulación y la supervisión; creo que, en
general, uno debería errar para minimizar riesgo de falla, pero la Inteligencia Artificial
es un caso en el que existe un peligro muy grave para el público”, dijo Ellon Musk
durante su charla SXSW (South by Southwest por sus siglas en Inglés) en el 2018.
“Debe ser un organismo público que tenga conocimiento y luego supervisión para
confirmar que todos están desarrollando IA de manera segura. Esto es
extremadamente importante”.
Entonces, la clave es decidir cómo aplicar la IA de manera ética. A nivel de empresa, hay
muchos pasos que se pueden tomar al integrar la IA en sus operaciones. Las organizaciones
pueden desarrollar procesos para monitorear algoritmos, compilar datos de alta calidad y
explicar los hallazgos de los algoritmos de IA. Los líderes podrían incluso hacer de la IA parte
de la cultura de su empresa, estableciendo estándares para determinar las tecnologías de IA
aceptables.
Los creadores de la IA deben buscar los conocimientos, las experiencias y las
preocupaciones de las personas de todas las etnias, géneros, culturas y grupos
socioeconómicos, así como de otros campos, tales como la Economía, el Derecho, la
Medicina, la Filosofía, la Historia, la Sociología y las Comunicaciones, interacción humanocomputadora, Psicología y estudios de Ciencia y Tecnología”.
Equilibrar la innovación de alta tecnología con el pensamiento centrado en el ser humano es
un método ideal para producir tecnología responsable y garantizar que el futuro de la
Inteligencia Artificial siga siendo esperanzador para la próxima generación. Los peligros de la
inteligencia artificial siempre deben ser un tema de discusión, para que los líderes puedan
descubrir formas de utilizar la tecnología en fines nobles y de beneficio para la humanidad.
Creo que podemos hablar de todos estos riesgos, y que son muy reales. Pero no debemos
cerrar las puertas a que la IA también será muy importante en nuestra caja de herramientas,
para resolver los mayores desafíos que enfrentamos y enfrentaremos como sociedad en un
muy corto plazo.
por: Juan Ortiz-Rencoret – Fundación Paz para Chile

Somos un conjunto de ciudadanos, padres y madres, que frente a la política estatal de implantación de la ideología de género en la educación chilena, y consientes del derecho originario, natural y constitucional de los padres a ser los primeros educadores de sus hijos, nos unimos para exigir el respeto a este derecho inalienable, por parte del Estado, y de cualquier persona natural o jurídica, que nos lo conculque o incurra en omisiones que signifiquen lo mismo.