Rival de Operai Antrópico, Ayer, el modelo que llamamos el bienestar del concepto para investigar y prepararse para el bienestar modelo. anunciado. Anthrope investigará formas de determinar si se considera moralmente un modelo de inteligencia artificial dentro del alcance del programa. Del mismo modo, la compañía investigará problemas como la importancia potencial de los síntomas del modelo y las posibles intervenciones de bajo costo.
https://www.youtube.com/watch?v=pyxouxa0wny
Anthrope afirma que no existe un consenso científico sobre si los sistemas de inteligencia artificiales existentes o futuros serán conscientes o si experimentan o no una evaluación ética en la publicación de blog que comparten.
La compañía detalla su opinión sobre este tema de la siguiente manera:
Por lo tanto, abordamos el problema con la humildad y la menor suposición posible. A medida que se desarrolla este campo, sabemos que tendremos que revisar nuestras ideas regularmente.
Como afirma antrópico, podemos decir que la comunidad de inteligencia artificial está en un gran desacuerdo cuando los modelos de sujeto exhiben características humanas. Muchos académicos afirman que la inteligencia artificial de hoy no puede abordar la conciencia o la experiencia humana y no pueden lograrla en el futuro. Mike Cook, experto asistente de investigación en el campo de la inteligencia artificial en el King’s College LondonDebido a que los modelos no tienen valores, un modelo «valores» un cambio «no puede» opuesto «expresado:
La humanización de los sistemas de inteligencia artificial en este grado significa algo para atraer la atención o un malentendido grave de su relación con la inteligencia artificial. ¿Un sistema de inteligencia artificial optimiza para objetivos o adquiere sus propios valores? Esta es una cuestión de cómo lo describe y lo elegante que desea usar al respecto.
Stephen Casper, quien es estudiante de doctorado en el MIT Él dice que piensa que la inteligencia artificial es un imitador en todo tipo de fabricaciones y dice que todo tipo de cosas sin sentido.
Por otro lado, algunos científicos insisten en que la inteligencia artificial tiene valores y otros componentes similares a los humanos en la toma de decisiones morales. Según un estudio realizado por la Organización de Investigación de Inteligencia Artificial AI Safety Center, la inteligencia artificial tiene sistemas de valores que hacen que su propio bienestar sea más prioritario que las personas en ciertos escenarios.
Anthrope se ha centrado en trabajar en el bienestar modelo por un tiempo. El año pasado, la compañía contrató al primer investigador especial de inteligencia artificial Kyle Fish, el primer investigador especial de inteligencia artificial en desarrollar directrices sobre cómo los antrópicos y otras compañías deberían abordar este problema. Fish también es el nombre que administra el nuevo programa de investigación de bienestar modelo. Según la declaración de Kyle Fish al New York Times; Claude u otra inteligencia artificial hoy La probabilidad de ser consciente es del 15 por ciento.