Aunque la inteligencia artificial se ha convertido en una de las tecnologías indispensables de la actualidad, especialmente recientemente, muchos de nosotros todavía tenemos algunos signos de interrogación. Por ahora, no es posible decir nada definitivo sobre si una tecnología que hace la vida humana tan fácil cambiará nuestros pies en el futuro. Sin embargo, una inteligencia artificial mal entrenada a veces puede resultar terrible.
Antes de explicar el enfoque de seguridad de OpenAI, me gustaría explicar por qué la seguridad y la ética de la IA son importantes con un ejemplo. Me encontré con un artículo de noticias por la mañana, la noticia era que ChatGPT había acusado a un profesor de derecho real con una noticia de acoso que en realidad no sucedió. Al contarle a USA Today sobre su experiencia, el profesor de derecho de la Universidad George Washington, Jonathan Turley, se dio cuenta de que ChatGPT lo nombró en su honor como parte de un proyecto de investigación sobre abogados que abusaron sexualmente de alguien.
El profesor escribió que recibió un correo electrónico interesante de su amigo, quien estaba realizando una investigación sobre el acoso sexual por parte de profesores en ChatGPT. «ChatGPT dijo que me acusaron de acoso sexual en un artículo del Washington Post de 2018 después de acosar a estudiantes de derecho en un viaje a Alaska», dijo Turley. dicho. Pero en realidad nunca fue a Alaska con los estudiantes, y The Post nunca publicó tal artículo. Creo que todos podemos darnos cuenta de lo terrible que puede ser esto. Es por eso que la inteligencia artificial debe entrenarse con mucha precisión y se deben tomar todas las medidas de seguridad necesarias. Por supuesto, OpenAI también es consciente de esto y compartió en detalle las medidas de seguridad tomadas en este contexto.
El equipo de OpenAI se compromete a mantener la IA poderosa segura y útil en general; Dijo que están trabajando para asegurarse de que la seguridad esté integrada en el sistema en todos los niveles.
Procesos de prueba prolongados y colaboraciones con gobiernos.
Según las acciones, la compañía se somete a pruebas rigurosas antes de lanzar cualquier sistema nuevo y trabaja con expertos externos para recibir comentarios. Trabajando para mejorar el comportamiento del modelo a través de técnicas como el aprendizaje reforzado con retroalimentación humana, OpenAI crea amplios sistemas de seguridad y monitoreo. La compañía afirma que después de completar la capacitación del último modelo, el GPT-4, trabajó durante más de 6 meses en toda la organización para hacerlo más seguro y más compatible antes de que esté disponible para el público en general. OpenAI, que cree que los sistemas de IA sólidos deben estar sujetos a rigurosas revisiones de seguridad, dice que se necesita una regulación para impulsar la adopción de tales aplicaciones y está colaborando activamente con los gobiernos en la mejor forma que puede tomar dicha regulación.
No es fácil entender con qué propósito la gente usará la tecnología.
Tratando de ser consciente de los riesgos previsibles, la compañía dice que hay un límite para lo que se aprende en el laboratorio y, a pesar de la investigación y las pruebas exhaustivas, no pueden predecir todas las formas beneficiosas y dañinas en que las personas usarán la tecnología. Al igual que en el ejemplo anterior, porque ese tipo de información puede incluso llevar al final de la vida de una persona en manos de personas malintencionadas.
Es por eso que la empresa está lanzando cuidadosa y gradualmente nuevos sistemas de inteligencia artificial a un grupo de personas en constante expansión, con salvaguardas clave, y está realizando mejoras continuas basadas en las lecciones que hemos aprendido.
OpenAI pone a disposición sus modelos más capaces a través de sus propios servicios y una API para que los desarrolladores puedan integrar esta tecnología directamente en sus aplicaciones. Esto nos permite rastrear el abuso, tomar medidas contra él y crear medidas de mitigación que respondan a las formas en que las personas abusan del sistema, no solo a las teorías sobre cómo podría ser el abuso. Así, la empresa puede cambiar sus políticas.
Algunas precauciones para los niños
En realidad, hay un límite de edad en OpenAI, lo que muestra que la protección de los niños es uno de los elementos más importantes en sus esfuerzos de seguridad; 18. Sin embargo, los niños de 13 años también pueden usar el programa bajo el control de los padres. Por supuesto, se introducen algunos criterios de verificación para evitar esto. La compañía dice que no permiten que la tecnología se use para crear contenido de odio, acoso, violencia o para adultos.
OpenAI dice que el último modelo, GPT-4, tiene un 82 por ciento menos de probabilidades de responder a solicitudes de contenido no permitido en comparación con GPT-3.5, y tienen un sistema sólido para monitorear el abuso. La compañía afirma que se están haciendo grandes esfuerzos para minimizar el potencial de los modelos para producir contenido que perjudique a los niños. Por ejemplo; Cuando los usuarios intentan cargar material de abuso sexual infantil en las herramientas de imágenes, se bloquea y se envían notificaciones a las autoridades.
Se respeta la confidencialidad
La compañía también subraya que se respeta la privacidad. No utiliza los datos para vender servicios, publicitar o crear perfiles de personas. ChatGPT está mejorando con más educación sobre las conversaciones que las personas tienen con él. Si bien algunos de los datos de capacitación incluyen información personal que se encuentra en Internet pública, se les pide a los modelos que aprendan sobre el mundo, no sobre los individuos. Es por eso que la compañía está trabajando para eliminar la información personal del conjunto de datos de capacitación, perfeccionando los modelos para rechazar las solicitudes de información personal de personas privadas y respondiendo a las solicitudes de las personas para que se elimine su información personal de los sistemas. Estos pasos minimizan la posibilidad de que los modelos generen respuestas que contengan información personal de particulares.
GPT-4 tiene un 40 por ciento más de probabilidades de producir contenido basado en hechos que GPT-3.5
Ese punto es muy importante para mí, porque la compañía dice que mejorar la precisión real es un enfoque clave para OpenAI y muchos otros desarrolladores de IA. Al afirmar que han progresado en esta área, la compañía dice que han mejorado la precisión de los hechos de GPT-4 al aprovechar los comentarios de los usuarios sobre los resultados de ChatGPT que se han marcado incorrectamente como la principal fuente de datos.
Mirando lo que se comparte, GPT-4 tiene un 40 por ciento más de probabilidades de producir contenido basado en hechos que GPT-3.5. OpenAI también intenta ser lo más transparente posible, ya que ChatGPT puede no ser siempre preciso cuando los usuarios se registran para usar la herramienta. Es decir, se empiezan a dar pasos más importantes con respecto a la información falsa.
La empresa afirma que seguirá tomando medidas de seguridad en este contexto.
El punto más importante que me di cuenta mientras escribía este artículo fue: El GPT-4 ofrece información más imparcial y precisa que otros modelos. Pero actualmente muchas personas todavía usan GPT-3 y 3.5. No importa cuán confiable sea el sistema, siempre es útil verificar varias veces la seguridad del contenido creado por ChatGPT y otros bots de inteligencia artificial. Personalmente, me gusta usar inteligencia artificial y para protegerme, siempre prefiero verificar en analógico cuando uso estos programas. Debo decir que no he visto ningún daño en esto hasta ahora. Es un consejo de inversión.
Fuente de la imagen: Fotos de depósito