La INTELIGENCIA ARTIFICIAL ha sido aclamada como revolucionaria, pero
no está exenta de inconvenientes

8 riesgos y peligros de esta tecnología (IA) que se deben conocer.
A medida que la Inteligencia Artificial (IA) se vuelve más sofisticada y generalizada, las voces
que advierten sobre los peligros potenciales que ella conlleva se hacen más fuertes.
“El desarrollo de la inteligencia artificial podría significar el fin de la raza humana”,
según Stephen Hawking.
El arriba mencionado, renombrado físico teórico, no está solo con este pensamiento.
Elon Musk, fundador de Tesla y Space X, expresó en la conferencia tecnológica SXSW
“La IA, me asusta mucho. Es capaz de mucho más de lo que casi nadie sabe, y la tasa
de crecimiento es exponencial”.
Ya sea por la creciente automatización de ciertos trabajos, los algoritmos con sesgos raciales
y de género o las armas autónomas que funcionan sin supervisión humana, por nombrar solo
algunos elementos de uso, la inquietud abunda en varios frentes. Y todavía estamos en las
primeras etapas de lo que la IA es realmente capaz de hacer.
Nadie sabe de qué es capaz y de qué no lo es. Nos conduce a una situación en la que
literalmente no se puede creer en lo que vemos y escuchamos; y al momento de analizarla no
podemos confiar, usando lo que históricamente hemos considerado como la mejor evidencia
posible para hacer una análisis.
Los regímenes autoritarios ya usan Inteligencia Artificial y la continuarán usando. La pregunta
es, ¿cuánto invade a los países occidentales y a sus democracias y qué restricciones se le
pondrán a la población?
A medida que la IA se vuelve más sofisticada y generalizada, las voces que advierten sobre
los peligros potenciales de su uso indiscriminado se hacen más fuertes.

LOS 8 PELIGROS DE LA INTELIGENCIA ARTIFICIAL (AI)


Las preguntas sobre quién está desarrollando la IA y con qué fines, hacen que sea aún más
esencial comprender sus posibles desventajas.
A continuación, veremos más de cerca los posibles peligros de la Inteligencia
Artificial y cómo gestionar sus riesgos.

  1. PERDIDAS DE EMPLEO DEBIDO A LA AUTOMATIZACION DE LA INTELIGENCIA
    ARTIFICIAL (IA).
    En Estados Unidos la automatización de trabajos impulsada por la IA, es y ha sido una
    preocupación apremiante a medida que la tecnología se adopta en industrias como la
    banca, marketing, fabricación y atención médica, por mencionar algunas.
    Las cifras indicaban que entre el 2020 y el 2025 se perderían aproximadamente ochenta y
    cinco millones de puestos de trabajo (hoy en el 2023 siguen en esa tendencia) debido a la
    automatización, siendo las minorías raciales y menos preparadas las más afectadas.
    A medida que los robots de IA se vuelvan más inteligentes y diestros, las mismas tareas
    requerirán menos humanos y con ello aumentará la carga social al Estado y si bien es cierto
    que la IA creará varios millones de nuevos puestos de trabajo para 2025, muchos
    empleados no tendrán las habilidades necesarias para estos roles técnicos y podrían
    quedarse atrás si las empresas no mejoran las habilidades de su fuerza laboral.
    Mientras un aumento en la automatización en las áreas de prestaciones y servicios,
    requerirá que el nuevo trabajo que busquen las personas necesite de mayor educación,
    capacitación o tal vez incluso talentos intrínsecos (habilidades interpersonales o creatividad
    realmente sólidas) que quizás ellas no posean, porque siendo honestos, al menos hasta
    ahora, las computadoras no son muy buenas en ese ámbito.
    Incluso las profesiones que requieren títulos de postgrado y capacitación adicional posterior
    a la universidad o Colegio Técnico, no son inmunes al desplazamiento de la IA. Areas como
    el Derecho y la Contabilidad NO están preparadas para una toma de control de la IA, de
    hecho algunas de ellas bien podrían ser diezmadas. La IA ya está teniendo un impacto
    significativo en la Medicina, el Derecho y la Contabilidad son los siguientes y el primero
    estaría listo para “una reorganización masiva”.
    Piense en la complejidad de los contratos, y realmente profundice y comprenda lo que se
    necesita para crear una estructura de trato perfecta.“Son muchos abogados que leen mucha
    información: cientos o miles de páginas de datos y documentos. Es muy fácil perderse de
    cosas. Entonces, la IA que tiene la capacidad de analizar y entregar de manera integral el
    mejor contrato posible para el resultado que está tratando de lograr probablemente
    reemplazará a muchos abogados corporativos.
  2. MANIPULACION SOCIAL MEDIANTE ALGORITMOS DE INTELIGENCIA
    ARTIFICIAL (IA)
    Un informe del 2018 sobre los posibles abusos de la IA, enumera la manipulación social
    como uno de los principales peligros de la inteligencia artificial. Este temor se ha
    convertido en realidad a medida que los políticos confían en plataformas para promover
    sus puntos de vista, un ejemplo reciente en Chile ha sido el proceso vivido a contar de
    Octubre del 2019 y especialmente el “Acuerdo por la Paz” y su subsiguiente Proceso
    Plebiscitario que terminó con un RECHAZO al cambio constitucional en septiembre del
    2022.
    Otro ejemplo claro de manipulación en Redes Sociales (RRSS), es TikTok que se ejecuta
    en un algoritmo de Inteligencia Artificial y que satura el “feed” (Bandeja de Entrada) de un
    usuario con contenido relacionado con la información que ellos han visitado anteriormente
    en la plataforma. Las críticas a la aplicación apuntan a este proceso y a la falla del
    algoritmo para filtrar contenido dañino e inexacto, lo que genera dudas sobre la capacidad
    de TikTok para proteger a sus usuarios de medios peligrosos y engañosos.
    Los medios de comunicación y las noticias en línea se han vuelto aún más turbios a la luz
    de las falsificaciones profundas que se infiltran en las esferas políticas y sociales. La
    tecnología facilita el reemplazo de la imagen de una figura con otra y lo mismo pasa con
    los videos. Como resultado, los manipuladores sociales, tienen otra vía para compartir
    información errónea y propaganda mal intencionada, creando un escenario donde puede
    ser casi imposible distinguir entre noticias confiables y las falsas.
  3. VIGILANCIA SOCIAL CON TECNOLOGÍA DE INTELIGENCIA ARTIFICIAL (AI)
    Además de su amenaza más existencial, la IA afectará negativamente la privacidad y la
    seguridad. Un buen ejemplo es el uso en China y otros países, de la tecnología de
    reconocimiento facial en oficinas, escuelas y otros lugares. Además de rastrear los
    movimientos de una persona, el gobierno puede recopilar suficientes datos para
    monitorear las actividades, relaciones y puntos de vista políticos de una persona pública o
    privada.
    Otro ejemplo son los departamentos de policía de EEUU, que adoptan algoritmos
    policiales predictivos para anticipar dónde ocurrirán los delitos. El problema es que estos
    algoritmos están influenciados por las tasas de arresto, que afectan de manera
    desproporcionada a las comunidades de minorías, especialmente la afroamericana y la
    latina. Luego, los departamentos de policía se duplican en estas comunidades, lo que
    lleva a un exceso de vigilancia. Pregunto ¿las democracias autoproclamadas, podrán
    resistirse a convertir la IA en un arma autoritaria?
  4. SESGOS POR INTELIGENCIA ARTIFICIAL (IA)
    Varias formas de sesgo que contiene la IA también son perjudiciales. El sesgo de la IA va
    mucho más allá del género y la raza. Además de los datos y el sesgo algorítmico (el último
    de los cuales puede «amplificar» el primero) debemos entonces recordar que la IA es
    desarrollada por humanos, y los humanos están inherentemente sesgados.
    Los investigadores de Inteligencia Artificial, son principalmente personas, que provienen de
    ciertos grupos demográficos raciales, que crecieron en áreas socioeconómicas más
    privilegiadas que la media, principalmente personas sin mayores necesidades. Son una
    población bastante homogénea, por lo que realmente es un desafío pensar en términos
    generales sobre los problemas mundiales.
    Las experiencias limitadas de los creadores de Inteligencia Artificial pueden explicar por
    qué la IA de reconocimiento de voz, a menudo no comprende ciertos dialectos y acentos.
    Los desarrolladores y las empresas deben ser más cuidadosas para evitar recrear sesgos y
    prejuicios poderosos que pongan en riesgo a las poblaciones minoritarias, raza y
    educación.
  5. AUMENTO DE LA DESIGUALDAD SOCIOECONÓMICA COMO RESULTADO DE LA
    INTELIGENCIA ARTIFICIAL (IA)
    Si las empresas se niegan a reconocer los sesgos inherentes e integrados en los
    algoritmos de IA, pueden comprometer sus iniciativa de Igualdad, Diversidad e Inclusión, a
    través del reclutamiento impulsado por Inteligencia Artificial.
    La idea de que la IA puede medir los rasgos de un candidato a través de análisis faciales y
    de voz todavía está contaminada por prejuicios humanos, lo que podría producir prácticas
    de contratación discriminatorias, que algunas empresas están tratando de mejorar.
    La creciente desigualdad socioeconómica, provocada por la pérdida de empleos impulsada
    por la IA, es otro motivo de preocupación que revela los sesgos de clase en la forma en
    que se aplica la IA.
    Los trabajadores de nivel subtécnico y que realizan tareas más manuales y repetitivas
    experimentarán caídas salariales, de hasta un 70 por ciento, debido a la automatización.
    Mientras tanto, los trabajadores de mayores estudios y preparación técnica se
    mantendrían prácticamente intactos, y algunos incluso disfrutarán de sueldos más altos.
    Las afirmaciones radicales de que la IA de alguna manera ha superado las fronteras
    sociales o ha creado más empleos no logran pintar una imagen completa de sus efectos.
    Es crucial tener en cuenta las diferencias basadas en educación, clase y otras categorías.
    De lo contrario, discernir cómo la IA y la automatización benefician a ciertos individuos y
    grupos a expensas de otros se vuelve más difícil de entender.
  6. DEBILITACIÓN DE LA ÉTICA Y LA BUENA VOLUNTAD POR LA INTELIGENCIA
    ARTIFICIALl (IA)
    Científicos, tecnólogos, periodistas y figuras políticas, incluso líderes religiosos, están
    haciendo sonar la alarma sobre las posibles trampas socioeconómicas de la IA. En una
    reunión del Vaticano en el 2019 titulada “El bien común en la era digital”, la Iglesia
    Católica advirtió contra la capacidad de la IA para “circular opiniones tendenciosas y
    datos falsos” y enfatizó las consecuencias de largo alcance al permitir que esta tecnología
    se desarrolle sin la supervisión o restricciones adecuadas.
    “Si el llamado progreso tecnológico de la humanidad se convirtiera en enemigo del
    bien común, nos conduciría desafortunadamente hacia una regresión a la forma de
    barbarie dictada por la ley del más fuerte”.
    El rápido auge de herramientas en linea de IA conversacional, tales como, ChatGPT da
    más sustancia a estas preocupaciones. Muchos usuarios han aplicado la tecnología para
    evitar tareas de escritura, amenazando la integridad académica y la creatividad, usando
    sitios como OpenAI, Beautiful.AI, WolframAlpha, Grammarly, EasyBib, Murf.AI, no les
    explicaré lo que se puede hacer con ellas, ya que el uso y abuso sólo generan personas
    más ignorantes, flojas y sin identidad propia, incapaces de trabajar y relacionarse con el
    prójimo para agrandar el conocimiento, debido a que la IA les hace todo el trabajo.
    “Algunos temen que, sin importar cuántas figuras poderosas señalen los peligros de
    la inteligencia artificial, vamos a seguir empujando los límites si hay dinero para
    ganar”.
    La mentalidad es, “Si podemos hacerlo, debemos intentarlo; veamos qué pasa y si podemos
    ganar dinero con eso, haremos una fortuna”. Pero esa mentalidad no es exclusiva de la
    tecnología, ha estado sucediendo desde siempre y es la razón principal del por qué
    debemos ser cuidadosos al aceptar innovaciones y más cuidadosos al dejar que ciertos
    grupos sociales manipulen el algoritmo de IA.
  7. ARMAS AUTÓNOMAS POTENCIADAS POR INTELIGENCIA ARTIFICIAL (IA)
    Como suele ser el caso, los avances tecnológicos se han aprovechado con fines bélicos.
    Cuando se trata de IA, algunos están dispuestos a hacer algo al respecto antes de que sea
    demasiado tarde: en una carta abierta el 2016, más de 30 000 personas, incluidos
    investigadores de IA y Robótica, rechazaron la inversión en armas autónomas impulsadas
    por IA.
    La pregunta clave para la humanidad hoy en día es ¿se debe iniciar una carrera
    armamentista global de IA o evitar que comience?
    “Si alguna potencia militar importante sigue adelante con el desarrollo de armas de
    inteligencia artificial, una carrera armamentista mundial es prácticamente inevitable, y el punto
    final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los
    Kalashnikov del mañana”.
    Esta predicción se ha hecho realidad en la forma de sistemas de armas autónomas letales,
    que localizan y destruyen objetivos por sí mismos mientras cumplen con algunas
    regulaciones. Debido a la proliferación de armas potentes y complejas, algunas de las
    naciones más poderosas del mundo han cedido a la ansiedad y han contribuido a una guerra
    fría tecnológica.
    Muchas de estas nuevas armas plantean grandes riesgos para los civiles, pero el peligro se
    amplifica cuando las armas autónomas caen en manos equivocadas.
    Los Piratas Informáticos han dominado varios tipos de ataques cibernéticos, por lo que no es
    difícil imaginar a un actor malintencionado infiltrándose en armas autónomas e instigando un
    Armagedón absoluto.
    Si no se controlan las rivalidades políticas y las tendencias belicistas, la inteligencia artificial
    podría acabar aplicándose con las peores intenciones.
  8. CRISIS FINANCIERAS PROVOCADAS POR ALGORITMOS DE INTELIGENCIA
    ARTIFICIAL (IA)
    La industria financiera se ha vuelto más receptiva a la participación de la tecnología de IA en
    los procesos financieros y comerciales cotidianos. Como resultado, el comercio algorítmico
    podría ser responsable de nuestra próxima gran crisis financiera en los mercados.
    Mientras escribo este articulo, hoy 16 de marzo del 2023, Radio Cooperativa publicaba la
    siguiente noticia y que no deja de ser preocupante:

    Si bien los algoritmos de IA no se ven empañados por el juicio o las emociones humanas,
    tampoco tienen en cuenta los contextos, la interconexión de los mercados y factores como la
    confianza y el miedo humano. Estos algoritmos luego realizan miles de transacciones a un ritmo
    vertiginoso, con el objetivo de vender unos segundos más tarde, para obtener pequeñas
    ganancias. La venta de miles de operaciones podría asustar a los inversionistas para que
    hicieran lo mismo, lo que provocaría caídas repentinas y una volatilidad extrema del mercado.
    Instancias como la crisis financiera del 2008, iniciada en Estados Unidos por el mercado
    inmobiliario y que después se expandió al resto del mundo, y donde, también los Fondos de
    Pensiones manejados por las AFP en Chile perdieron cientos de millones de dólares al comprar
    cuentas que la IA de aquel entonces mostraban como seguras y que terminaron afectando los
    ahorros de cientos de miles de chilenos. También hoy en el 2023 con lo que está ocurriendo en
    la caída de la Banca en Estados Unidos, nos sirven como recordatorios de lo que podría
    suceder cuando los algoritmos felices del comercio se vuelven locos, independientemente de si
    el comercio rápido y masivo es intencional o no.
    Esto no quiere decir que la IA no tenga nada que ofrecer al mundo de las finanzas. De hecho,
    los algoritmos de IA pueden ayudar a los inversionistas a tomar decisiones más inteligentes e
    informadas en el mercado. Para eso las organizaciones financieras deben asegurarse de
    comprender a cabalidad los algoritmos de IA y cómo esos algoritmos toman decisiones. Las
    empresas deben considerar si la IA aumenta o disminuye su confianza, antes de introducir la
    tecnología para evitar avivar los temores entre los inversionistas y crear un caos financiero.

    MITIGACION DE LOS RIESGOS DE LA INTELIGENCIA ARTIFICIAL (IA)
    La IA todavía tiene numerosos beneficios, como la organización de datos de salud y la
    fabricación de vehículos autónomos. Sin embargo, para aprovechar al máximo esta
    tecnología prometedora, algunos argumentan que se necesita mucha regulación.
    “Normalmente no soy un defensor de la regulación y la supervisión; creo que, en
    general, uno debería errar para minimizar riesgo de falla, pero la Inteligencia Artificial
    es un caso en el que existe un peligro muy grave para el público”, dijo Ellon Musk
    durante su charla SXSW (South by Southwest por sus siglas en Inglés) en el 2018.
    “Debe ser un organismo público que tenga conocimiento y luego supervisión para
    confirmar que todos están desarrollando IA de manera segura. Esto es
    extremadamente importante”.
    Entonces, la clave es decidir cómo aplicar la IA de manera ética. A nivel de empresa, hay
    muchos pasos que se pueden tomar al integrar la IA en sus operaciones. Las organizaciones
    pueden desarrollar procesos para monitorear algoritmos, compilar datos de alta calidad y
    explicar los hallazgos de los algoritmos de IA. Los líderes podrían incluso hacer de la IA parte
    de la cultura de su empresa, estableciendo estándares para determinar las tecnologías de IA
    aceptables.
    Los creadores de la IA deben buscar los conocimientos, las experiencias y las
    preocupaciones de las personas de todas las etnias, géneros, culturas y grupos
    socioeconómicos, así como de otros campos, tales como la Economía, el Derecho, la
    Medicina, la Filosofía, la Historia, la Sociología y las Comunicaciones, interacción humanocomputadora, Psicología y estudios de Ciencia y Tecnología”.
    Equilibrar la innovación de alta tecnología con el pensamiento centrado en el ser humano es
    un método ideal para producir tecnología responsable y garantizar que el futuro de la
    Inteligencia Artificial siga siendo esperanzador para la próxima generación. Los peligros de la
    inteligencia artificial siempre deben ser un tema de discusión, para que los líderes puedan
    descubrir formas de utilizar la tecnología en fines nobles y de beneficio para la humanidad.
    Creo que podemos hablar de todos estos riesgos, y que son muy reales. Pero no debemos
    cerrar las puertas a que la IA también será muy importante en nuestra caja de herramientas,
    para resolver los mayores desafíos que enfrentamos y enfrentaremos como sociedad en un
    muy corto plazo.

por: Juan Ortiz-Rencoret – Fundación Paz para Chile

Deja un comentario