Colegio de Estudios Científicos y Tecnológicos del Estado de Michoacán
Morelia (CECyTE)

Ing. José Antonio Cisneros Pascual, Docente

Mayo 2023

Inteligencia Artificial

 

Resumen

Imágenes, presentaciones, código en prácticamente cualquier lenguaje de programación, resolución de problemas matemáticos, la IA de la que solíamos escuchar, de la que se solían ver películas es una realidad hoy en día, actualmente encontramos herramientas de IA para crear casi cualquier cosa, incluso escribiendo de manera correcta el enunciado en la plataforma específica, la IA puede entregarnos información confidencial, información que no deberíamos obtener (claves de acceso, seriales de programas etc.), y por supuesto también respuestas incorrectas a preguntas bien formuladas, que es donde reside un gran problema.

 

Desarrollo

La inteligencia artificial va a cambiar al mundo, aunque aún no se tenga la certeza de cómo lo hará, si será un cambio bueno o malo y, esto es relativo, ya que no es la misma precepción en todas las personas de lo que es bueno o lo que es malo.

La IA es un campo tan vasto, actual e innovador que aunque ya pueda sorprendernos, no es mas que el comienzo de aquello que afectará y revolucionará cada uno de los aspectos de nuestras vidas.

En 1950, el matemático Alan Turing se hizo una pregunta: «¿Pueden pensar las máquinas?». De hecho, esta simple pregunta cimbró el mundo, podemos decir que la IA es un intento de replicar, de simular la inteligencia humana pero en máquinas.

Una de las definiciones de lo que es una IA es la siguiente: «máquinas que responden a simulaciones como los humanos, con capacidad de contemplación, juicio e intención». Estos sistemas son capaces de «tomar decisiones que normalmente requieren un nivel humano de conocimiento». Tienen tres cualidades que constituyen la esencia de la inteligencia artificial: intencionalidad, inteligencia y adaptabilidad.

Hay dos categorías principales de inteligencia artificial. La inteligencia artificial de tipo «narrow» (estrecha), también conocida como «weak» (débil), solo puede funcionar en un contexto limitado. Suele centrarse en la realización de una única tarea, que es capaz de hacer perfectamente.

Sin embargo, aunque esa máquina pueda parecer inteligente, es mucho más limitada que la inteligencia humana. No es más que una imitación de esta.

Algunos ejemplos son el motor de búsqueda web de Google, el software de reconocimiento de imágenes, los asistentes virtuales como Siri de Apple o Alexa de Amazon, los vehículos autónomos o el software como Watson de IBM.

En cambio, la segunda categoría es la inteligencia artificial «general». Esa IA es similar a las que se ven en las películas y libros de ciencia ficción.

Es una máquina dotada de una inteligencia artificial general, comparable a la de un ser humano y capaz de resolver cualquier tipo de problema. Un algoritmo universal, capaz de aprender y actuar en cualquier entorno.

Sin embargo, en realidad, este tipo de IA aún no existe. Ninguna tecnología está lo suficientemente avanzada hasta la fecha como para competir con el cerebro humano, la pregunta aquí es también ¿en algún momento la IA podrá competir de lleno con el cerebro humano?, no tenemos certeza alguna de ello, podrá competir en cuestiones analíticas, en velocidad de procesamiento, en muchos aspectos podrá y al parecer ya es mejor y más rápido que el cerebro humano, pero ¿la creatividad?, ¿la empatía?, ¿los sentimientos?, aquello que nos hace humanos…

De que sirve una máquina que puede pensar y resolver problemas si no puede sentir, si no puede estremecerse con una imagen que ya es capaz de crear, si solo imita al cerebro humano, ¿una inteligencia increíble, pero sin sentimientos podría ser peligrosa?

Hay varios estudios y análisis que muestran ciertos riesgos por el uso de la IA, por su uso sin regulación, sin limitaciones.

El informe titulado “El derecho a la privacidad en la Era Digital”, de la Oficina de Derechos Humanos de Naciones Unidas (ACNUDH) señala que si bien la IA puede generar grandes beneficios a la sociedad, de no utilizarse con las debidas protecciones puede poner en peligro los derechos humanos, por lo que recomienda imponer moratorias a la venta y uso de tales sistemas hasta que se establezcan las salvaguardas adecuadas para proteger esos derechos.

Por su parte, el Informe del panel 2021 del “Estudio de cien años de inteligencia artificial” (AI100), reconoce que el avance de esta tecnología llegó a un punto de inflexión. Y advierte sobre la urgencia de “pensar seriamente en las desventajas y los riesgos “de la amplia aplicación de la IA”.

“Los algoritmos de deep learning (aprendizaje profundo) son tan grandes y complejos que es difícil explicar cómo toman las decisiones, y si ellas son discriminatorias o no”.

Investigadores y creadores de la IA han logrado definir algunos de los principales riesgos de la IA, enumeramos 10 de ellos:

  1. Resultados sesgados:

Dado que los algoritmos de IA son creados por humanos, cualquier persona que agregue sesgos a la tecnología del algoritmo puede hacerlo. Las técnicas de IA producirán resultados sesgados si se desarrollaron con parcialidad o si los datos utilizados como conjuntos de entrenamiento para los algoritmos estaban sesgados. Los robots y las máquinas pueden tener efectos no previstos como resultado de esta realidad.

  1. Pérdidas de trabajo:

Como en todo cambio tecnológico, pueden producirse pérdidas de trabajo en ciertos nichos específicos. Sin embargo, también puede haber muchos puestos de trabajo creados por la IA. De hecho, muchos estudios predicen un aumento neto de nuevos puestos de trabajo o al menos anticipan que se creará la misma cantidad para reemplazar los que se pierden como resultado de la tecnología de IA. Algunos trabajos que la IA podría crear: detectives o científicos de datos, ingenieros de robótica, administradores de máquinas y programadores (que puedan codificar en Python), considerado una clave para el desarrollo de la tecnología.

  1. Incomprensión:

Muchos de los resultados de la tecnología de IA son difíciles de explicar debido a la naturaleza de las técnicas utilizadas, que muchas veces para los no-especialistas operan como “caja negra”. Más aún, en casos recientes como el de ChatGPT muchos resultados que genera la herramienta son muy impredecibles y aún difíciles de controlar. Los sistemas de IA más avanzados son también los menos capaces de justificar sus decisiones, a pesar de que son los que hacen las predicciones más precisas.

  1. Seguridad:

El ritmo al que se pueden completar las tareas de automatización complejas se incrementa con tecnologías de IA avanzada, usualmente superando nuestra capacidad como humanos para mantener dicho ritmo. La automatización en diversos sectores productivos puede dificultar que los humanos detecten actos malvados, la introducción de virus y el uso de sistemas de IA para debido a la forma en que estos sistemas ven el mundo. En aplicaciones actuales, mucha información puede quedar al descubierto.

 

  1. Terrorismo cibernético:

Podría surgir un nuevo tipo de terrorismo al que enfrentarse que utiliza IA. Esto podría abarcar desde el desarrollo de drones autónomos y la creación de enjambres robóticos hasta el uso de mini-robots para ataques remotos o la propagación de enfermedades. Aunque la adopción continua eventualmente podría generar efectos negativos, estos se minimizan en la mayor medida posible, el resolverlos tomará tiempo y un amplio razonamiento para encontrar las mejores formas de prepararse para el futuro.

 

  1. Privacidad:

Una de las mayores preocupaciones que surgen en variados estudios es la seguridad y el uso de datos de consumidores por parte de sistemas de IA. Muchas empresas ya eluden las violaciones de privacidad de datos con sus prácticas de recopilación y uso, y los expertos temen que esto pueda aumentar a medida que crezca el uso de aplicaciones masivas de IA. Otra preocupación es que actualmente existen pocas regulaciones sobre IA (en general, o sobre privacidad de datos) a nivel nacional o internacional.

  1. Interacción con humanos:

Usualmente en aplicaciones tradicionales de la IA la interacción entre humanos y los sistemas de IA no era una preocupación. Ahora con muchas aplicaciones de la IA en lo cotidiano, ¿cómo afecta a los humanos la interacción con la IA? Si las empresas confían demasiado en las predicciones realizadas por tecnologías de IA sobre cuándo se realizará el mantenimiento sin otros controles, podría provocar fallas en la maquinaria, o incluso los modelos en el área de la salud podrían causar diagnósticos erróneos.

  1. Invasión de máquinas:

Posibilidad que las máquinas con IA se vuelvan más “humanas”. Esto es un tema bastante recurrente en la cultura popular y en la discusión pública sobre el futuro tecnológico. Parte del miedo de que las máquinas superen a la inteligencia humana y que se pongan en contra de sus diseñadores proviene mucho de variadas películas de ciencia ficción. Sin embargo, el estado de la IA actual no es lo suficientemente avanzada como para ser consciente de sí misma o para tener la capacidad de rebelarse. Otra cosa diferente es que para cierto tipo de respuestas, como en el caso de aplicaciones como CharGPT la gente “piense” que la máquina es consciente, pero no, esta simplemente está realizando buenas predicciones sin entender lo que lee o genera. La idea que los computadores puedan tener emociones se basa generalmente en el supuesto incorrecto de que las emociones son solo un tema de procesamiento de información, siendo que esta involucra interacciones complejas entre la biología y el entorno.

 

  1. Manipulación y vigilancia social:

Este riesgo se ha convertido en realidad a medida que los políticos confían en plataformas para promover sus puntos de vista, con ejemplos recientes de instituciones a nivel internacional que manejan un ejército de trolls de TikTok para capturar los votos de los ciudadanos. Las críticas a este tipo de aplicaciones apuntan a este proceso y a la falla de los métodos de IA para filtrar contenido dañino, lo que genera dudas sobre la capacidad de los medios para proteger a sus usuarios de medios engañosos.

 

También se puede generar una supervigilancia social. Un ejemplo es el uso por varios países de tecnología de reconocimiento facial en diferentes lugares. Además de rastrear los movimientos de una persona, los respetivos gobiernos pueden recopilar suficientes datos para monitorear las actividades y puntos de vista políticos de una persona. Otro ejemplo son las unidades policiales que utilizan predicciones basadas en IA para anticipar los delitos.

 

  1. Que se vuelva humana y tenga sentimientos:

Es muy complicado imaginarle un rostro a un proceso de datos que no son tangibles, sino que están almacenados en servidores. Pero sí es más posible, ahora que las IA conversan de manera más eficaz, imaginarle sentimientos a esos sistemas informáticos. Y eso es muy peligroso. Igual que una imagen puede generar una sensación y un texto vehicular una emoción, hay ya personas mostrándose sorprendidas porque ChatGPT refleje su tristeza o felicidad en sus respuestas.

 

Esta ultima es la que crea más preocupación, que una máquina lograra tener sentimientos, ¿la convertiría en humana?, ¿Dónde quedarían las personas?, además debemos recordar que los sentimientos son el motor de muchos comportamientos tanto positivos como negativos en las personas, pensamientos o acciones negativas en una máquina con poder de procesamiento casi ilimitado podría llevarnos al caos.

 

 

 

 

Bibliografía

https://datascientest.com/es/inteligencia-artificial-definicion#:~:text=La%20historia%20de%20la%20inteligencia%20artificial%20comenz%C3%B3%20en%201943%20con,creaci%C3%B3n%20de%20una%20red%20neuronal.

 

https://www.scidev.net/america-latina/news/advierten-riesgos-de-uso-irrestricto-de-inteligencia-artificial/?https://www.scidev.net/america-latina/&gclid=Cj0KCQjw756lBhDMARIsAEI0Agm_zZd2_U628AsKT_enoCMdp6__NDrZ7GKHpnplMfd5n_LM_EqWeP8aAmbuEALw_wcB

 

https://www.latercera.com/que-pasa/noticia/las-10-cosas-que-mas-tememos-de-la-inteligencia-artificial/2TWXIEWVXBHOZNYYWYIME2FOZY/