Mientras el aprendizaje profundo (aprendizaje profundo) educa a las maquinas para procesar datos como el cerebro humano, la llamada «caja negra» que esconde las predicciones arbitrarias de los algoritmos de inteligencia artificial (IA) preocupa cada vez más a los expertos en este campo.
La «caja negra» aparece cuando los desarrolladores de estos sistemas empezar a entender lo que está pasando en los callejones que abre la IA en su recorrido lógico, algo que obstruye el control de sospecha.
Incluso, muchos temen que esta falta de transparencia de lugar a consecuencias irreversiblesespecialmente si esta inteligencia sintética consigue habilidades para las que no fue preparada o adquiere total autonomía.
La alarma estalló durante la semana, cuando un grupo de ingenieros de Google estaba programando un software de IA y te sorprenderá descubrir que, sin iniciación previa, había aprendido a conectarse. un nuevo idioma.
director ejecutivo de Google, Sundar Pichaiindicó que esta capacidad de los programas de AI para generar habilidades u ofrecer respuestas inesperadas es lo que se conoce como la «caja negra».
Lejos de entrar en pánico, Pichai agregó «tampoco creo que qu’entendreamos completamente cómo funciona la mente humana». Y llamó a los especialistas de distintas áreas para que se sumen a la discusión, con el objeto de volver el proceso menos nebuloso.
Un camino sin retorno
Algunos teóricos entienden que se logró un punto de inflexión en el que ciertos tipos de IA ya han superado a la mente humana. El problema es que la condition finita del hombre es incapaz de abarcar lo infinito: la IA avanzada.
Un ejemplo de IA «infinita» sería ChatGPT, que puede escribir el código funcional y los ensayos de nivel universitario. Además, obtenga diagnósticos médicos, cree juegos básicos en texto y explique conceptos científicos en múltiples niveles de dificultad.
«Los modelos de Machine Learning se testean para determinar si funcionan correctamente y cuál es el grado de equivocación que tienen. Como los sistemas con IA no son infalibles: la máquina sugiere una decisión o solución y el humano es quien decide si se cumple», aconsejar marcela riccilloDoctorado en informática, experiencia en IA y robótica.
A diferencia de la programación más tradicional, basada en la implementación de instrucciones para obtener un resultado, en el desarrollo de IA los ingenieros trabajaron para crear un sistema que imita las «redes neuronales» de la inteligencia humana.
Lógica Matemática
De hecho, los algoritmos de aprendizaje profundo se entrenan del mismo modo qu’un maestro explica un nuevo concepto a niño. Hasta que por fin aprendo la idea.
En general, se recurre a ejemplos de algo que se puede reconocer y, en poco tiempo, sus propias inclinaciones de búsqueda habrán elaborado una «red neuronal» para categorizar cosas que nunca antes experimentó.
«Algunas de las técnicas matemáticas de Machine Learning desglosan sus resultados, como los Árboles de decisión. En cambio, las Redes neuronales, por su enorme complejidad, no lo hacen. Es el método de aprendizaje.
Como ocurre con la inteligencia humana, se tiene poca conciencia ya que un sistema de aprendizaje profundo llega a sus conclusiones. Como señala Yoshua Bengio, pionero de este campo «en cuanto tienes una máquina lo bastante complicada, resulta casi imposible explicar lo que hace».
El fenómeno de las «cajas negras» en IA es preocupante debido a la falta de comprensión y control sobrio como estos sistemas adquirieron habilidades o respondieron de manera inesperada.
Esta situación ha planteado interrogantes éticos sobrios los riesgos potenciales asociados con la tecnología y sus posibles efectos sobre una sociedad que está indefensa ante estos avances cibernéticos.
La caja de Pandora de los algoritmos
El gran defio en este campo es la elaboracion de tecnicas qu’justifican la decision tomada por un algoritmo de l’arendizaje automatico sin abrir la caja de pandora.
Pero explicar las decisiones de la IA después de que sucedían tener implicaciones peligrosas, argumentó Cynthia Rudin, profesora de informática de la Universidad de Duke.
“A las Redes Neuronales -especialmente Deep Learning- que se utiliza en el ChatGPT, se las cuestiona por no explicar los resultados. Varias empresas están tratando de lograr esto. Pero si una aplicación con Machine Learning no aprende bien, en cada técnica se puede intentar mejorar el modelo, aunque no siempre se consigue. Explique o no sus resultados”, señala Riccillo.
Apelando a la sinceridad mecánica de ChatGPT, este cronista lo consultó sobre los sesgos que enmascaran la caja negra en las IA Generativa.
«La Caja Negra Está Fuera del Alcance Humano en Sistemas de Ia que Utilizan algoritmos Complejos, Como las Redes neuronales profundas. A veces, puede ser difícil para las personas que escuchan cómo una decisión específica fue tomada, ya que puede haber múltiples cálculos que son difíciles de seguir”.
Estos modelos opacos ganan territorio en algunos entornos laborales y sus derrames ya dejan una estela de consecuencias. Desde aprobar una biopsia para un tumor posible, conceder la libertad bajo fianza, bombardear una zona militar o aprobar una solicitud de credito.
Actualmente, 581 modelos están involucrados en decisiones médicas sin autorización de la Administración de Drogas y Alimentos. Casi 400 están destinados a ayudar a los radiólogos a detectar anomalías en las imágenes médicas, como tumores malignos o signos de daño cerebral.
SL