Clicky

  • La Inteligencia Artificial puesta en el banquillo

    April 21, 2023
    No Comments
    Algunos antecedentes. OpenAI es un laboratorio de investigación de inteligencia artificial (IA) estadounidense que consta de la organización sin fines de lucro OpenAI Incorporated y su corporación subsidiaria con fines de lucro OpenAI Limited Partnership. OpenAI realiza investigaciones de IA con la intención declarada de promover y desarrollar una IA amigable.
    
    Por primera vez, el primero de su tipo, el propietario de ChatGPT, OpenAI, se enfrenta a una demanda por difamación presentada por un alcalde australiano. La startup reconoció haber proporcionado datos falsos sobre escándalos de soborno en su dispositivo ChatGPT 3.5.
    
    Voy a decirte algo que no quieres oír. ChatGPT afirmó que el alcalde del consejo de Hepburn Shire, noroeste de Melbourne, Australia, el Sr. Brian Hood, cumplió condena en prisión por un escándalo de soborno que tuvo lugar mientras trabajaba para una subsidiaria del Banco Nacional de Australia. En realidad, no lo hizo. No solo nunca ha estado en prisión, sino que también el Sr. Hood fue el denunciante que ayudó a acabar con los verdaderos culpables en ese escándalo de soborno. Además, nunca fue acusado de ningún delito.
    
    Él dice; ellos dicen. El Sr. Hood dice que se sorprendió mucho al saber que ChatGPT produjo una respuesta engañosa y que estaba "horrorizado" al ver lo que ChatGPT le decía a la gente: "Al principio me sorprendió que fuera tan incorrecto", le dijo a la emisora ​​australiana ABC. Noticias.
    Por lo tanto, en su blog público sobre la herramienta, OpenAI dice que "a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido". Cabe señalar que cuando las personas usan ChatGPT, se les muestra un descargo de responsabilidad que advierte que el contenido que genera puede contener "información inexacta sobre personas, lugares o hechos". En este caso, fue un poco más que simplemente "inexacto". Además, uno de los mayores desafíos con los sistemas de IA generativa es el concepto de alucinaciones, que es la capacidad de la IA generativa para inventar información que parece cierta pero no lo es. Esto es precisamente lo que sucedió en este caso; probablemente, como dijo un autor, "ChatGPT es impresionante para analizar y generar oraciones en inglés, pero tiene un problema con los hechos".
    
    La ley tiene su palabra (más bien no concluyente). El caso es un claro recordatorio tanto de las deficiencias actuales de la IA como del daño devastador que infligen a las personas reales. Además, desde un punto de vista legal, la cuestión clave es si el propietario de un chatbot gpt puede ser demandado por difamación. Según Laurence Tribe de Harvard Law, una afirmación sería plausible, argumentando que a la ley no le importa si la difamación es generada por un humano o por una máquina. Sin embargo, Ron Nell Andersen Jones de la Universidad de Utah dijo que la ley fue escrita para aplicarse a un acusado con “un estado de ánimo”. Eso significa que AI tendría que saber que la salida era falsa, o escribir una respuesta con un desprecio imprudente por si era verdad, un estándar difícil de aplicar a una herramienta inanimada. 
    
    Finalmente, un grupo de profesores de Stanford explica que la parte difamada probablemente comenzaría con el propietario de la IA. El propietario a su vez, trataría de echarle la culpa al fabricante del dispositivo argumentando que fue diseñado de una manera que lo hizo peligroso. La verdad del asunto a menudo es poco clara.
    COMPARTIR
    Subscribe
    Notify of
    guest
    0 Comments
    Inline Feedbacks
    View all comments
  • “CDM en Español es la nueva opción informativa con credibilidad, para una audiencia hispana que busca informarse de manera objetiva y responsable"
    Copyright © 2024  CDM En Español
    magnifier