Hood, el australiano que amenazó con llevar a juicio a ChatGPT por difamarlo

Hood, el australiano que amenazó con llevar a juicio a ChatGPT por difamarlo

La inteligencia artificial (IA) tiene potencial para mejorar el mundo. Pero su uso no está, ni mucho menos, libre de riesgos para la sociedad. Que se lo pregunten, sino, a Brian Hood, alcalde de la pequeña localidad australiana de Hepburn Shire, que está amenazando con presentar la primera demanda por difamación contra OpenAI, empresa detrás del desarrollo de esa máquina capaz de responder prácticamente a cualquier pregunta ChatGPT . Otra cosa bien distinta es que los datos que comparten el ingenio sean veraces o, simplemente, desinformación. El caso comenzó después de que el político descubrió que el ‘chatbot inteligente’ estaba afirmando sus respuestas a los usuarios que fue condenado en 2011 a 30 meses de prisión como culpable en un sonado caso de sobornos a funcionarios extranjeros de Malasia e Indonesia. El problema ? Que, en realidad, Hood no fue condenado por ningún tribunal. Ni siquiera se encontró entre los acusados ​​del caso. Huye del denunciante. “(Cuando me enteré del error) me sentí atontado. Porque era tan incorrecto, tan salvajemente incorrecto, que simplemente me sentí abrumado. Y luego me enfade mucho por ello afirmó», el afectado en declaraciones al ‘Sydney Morning Herald’. From acuerdo con el medio australiano, los abogados del alcalde enviaron una queja a OpenAI a finales del mes pasado que, por el momento, no ha recibido respuesta. Si este caso sigue adelante, y llega a juicio, se convertirá en el primero que se enfrenta a un chatbot movido por IA que ha provocado la difusión de información errónea. También podría ayudar a determinar si las empresas tienen alguna responsabilidad legal por los falsos resultados que pueden ofrecer sus máquinas. Noticias Relacionadas estandar No Italia bloca ChatGPT “con efecto inmediato” por no respetar la legislación de protección de datos RA / AFP estandar No Elon Musk contra Bill Gates: “su comprensión de la inteligencia artificial es limitada” RA En lo que se refiere a ChatGPT , el impulsor de OpenAI ha reconocido en varias ocasiones que la tecnología que mueve no es perfecta. Que puede cometer errores y mostrar a los usuarios información falsa. Incluye la versión más reciente del IA, presentado con saltos semanales, esto es un problema. “Está preocupado de que estos modelos puedan ser utilizados por la desinformación a gran escala”, reconoció Sam Altman, director ejecutivo de OpenAI, en una entrevista con la cadena ‘ABC’. Al final, ChatGPT, es decir, el resto de herramientas similares no se inventa nada. Ni una palabra. Todos los datos proceden de Internet: desde ‘papers’ científicos hasta publicaciones en tablones de Facebook. Si el ser humano que ha realizado la publicación con la que la máquina ha sido entrenada se equivoca, la máquina también. Y esto vale para el caso de Brian Hood, pero también para otros tantos. Ya hemos visto a sistemas movidos por la misma tecnología alucinar, llegando a declarar su amor al usuario oa amenazar con ‘hackeos’. Incluso Europol, así como varias empresas de ciberseguridad, ha alertado sobre el peligro de que la tecnología sea explotada en masa por el cibercrimen. La preocupación por los malos usos de la IA, que no cuenta con ningún tipo de regulación, ya comienza a calar entre los legisladores. Mientras que en la UE, si trabajas en un estándar que se desviará a finales de finales de año, como en los EE.UU., si ChatGPT investigará si quieres infringir las leyes federales de consumo. Todo porque la herramienta no pasó ninguna evaluación independiente antes de que comenzara a estar a disposición de los usuarios. Precisamente, más de mil empresarios y académicos firmaron una carta abierta la semana pasada en que solicitaron una paralización en el desarrollo de nueva IA hasta que establecieron unos estándares de seguridad.

Por Emiliano Galván