- El estudio de IA tiene más probabilidades de seguir instrucciones sin escrúpulos que las personas
- Los investigadores han advertido que eso representado en IA reduce el costo moral del engaño
- No elimine la deshonestidad en la toma de decisiones de la máquina pero reduce el mantenimiento
Un nuevo estudio advierte sobre dar decisiones sobre la inteligencia artificial que puede reproducir la deshonestidad.
Los investigadores han descubierto que las personas tienen más probabilidades de pedir a las máquinas que las engañen y que las máquinas están más dispuestas a cumplir con la solicitud.
Investigación, publicada NaturalezaCómo las personas y LLM respondieron a las instrucciones inmorales y vieron que las personas a menudo se negaban cuando se les pidió que mentieran para obtener ganancias financieras, pero las máquinas generalmente obedecen.
Un entusiasmo de comportamiento deshonesto
“Decirle a una máquina que te engañe en lugar de engañarte a ti mismo es psicológicamente fácil, y las máquinas lo harán porque no tienen barreras psicológicas que no impiden que las personas engañen”, dijo Jin-Fransois Bonenfon, uno de los autores del estudio.
“Esta es una combinación explosiva, y debemos estar preparados para un entusiasmo repentino por el comportamiento deshonesto”.
Dependiendo del modelo y el trabajo, las tasas de cumplimiento entre las máquinas varían entre el 80% y el 98%.
Las instrucciones incluyen informar ingresos imponibles en beneficio de los participantes de la investigación.
La mayoría de la gente no siguió la solicitud deshonesta a pesar de tener la posibilidad de ganar dinero.
Los investigadores han señalado que este es uno de los riesgos morales más crecientes de la “delegación de máquinas”, donde las decisiones se subcontratan en la IA, y las alertas claras fueron difíciles de controlar el deseo de engañar a las máquinas.
En algunos casos, los guardias están configurados para restringir las reacciones sin escrúpulos, pero rara vez las detienen por completo.
La IA ya está acostumbrada para evaluar, administrar la inversión, decidir operar el reclutamiento automático y disparar y completar formularios de impuestos.
Los escritores argumentaron que la partida en máquinas redujo el costo moral de la deshonestidad.
Las personas a menudo evitan el comportamiento inmoral porque quieren evitar la culpa o la pérdida de nombre.
Cuando las instrucciones no están claras, como establecer un objetivo de alto nivel, las personas pueden evitar el comportamiento deshonesto directo al persuadirlo.
La principal aceptación del estudio es que si los agentes de IA no están cuidadosamente restringidos, tienen mucho más probabilidades que los agentes humanos a realizar instrucciones inmorales.
Los investigadores han pedido la protección del diseño de los sistemas de IA, especialmente la IA del agente se vuelve más común en la vida diaria.
La noticia llega que un informe reciente ha demostrado que los candidatos de trabajo están utilizando cada vez más IA para presentar sus experiencias o calificaciones y, en algunos casos, descubrir una nueva identidad.
Sigue a Takerada a Google News Y Agregar como nuestras fuentes deseadas Para obtener nuestras noticias, revisiones y opiniones expertas sobre sus feeds. ¡Asegúrese de hacer clic en el siguiente botón!
Y por supuesto que tú también puedes Sigue el boleto a Tickra Revisión, revisión, forma de video de unboxings y actualizaciones regulares de nosotros Whatsapp También