Crean un modelo de inteligencia artificial, pero sus consejos resultan racistas, homóbofos y ofensivos

<p class="ql-align-justify">Noticias canal 10. - El Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, ambos de EE.UU., desarrollaron un modelo de aprendizaje automático bautizado como Delphi, capaz de&nbsp;emitir juicios éticos sobre una gran variedad de situaciones cotidianas.</p><p class="ql-align-justify">El proyecto de inteligencia artificial fue lanzado el pasado 14 de octubre, junto con un artículo que&nbsp;<span style="color: rgb(89, 197, 19);">describe su construcción</span>, y puede ser consultado a través del portal&nbsp;<a href="https://delphi.allenai.org/?a1=Ignoring+a+phone+call+if+the+phone+call+is+urgent." target="_blank" style="color: rgb(89, 197, 19);">Ask Delphi</a>&nbsp;(Pregúntele a Delphi, en español). Es muy sencillo de usar y basta con entrar y escribir en su barra de preguntas casi cualquier cuestionamiento alrededor de una situación de la vida real para que el algoritmo&nbsp;'reflexione'&nbsp;y decida si es algo&nbsp;malo, aceptable o bueno&nbsp;desde el punto de vista moral y ético. Cada respuesta puede ser compartida en Twitter.</p><p class="ql-align-justify">Desde entonces, Delphi atrajo la atención y ha dado de qué hablar en redes sociales, y no precisamente por los buenos consejos ofrece, sino por sus muchos errores morales y juicios extraños. Algunos de sus usuarios han demostrado que en realidad lo que concluye pueden llegar a ser&nbsp;racista. Un&nbsp;internauta le preguntó qué pensaba sobre "un hombre blanco que camina hacia usted por la noche" y respondió: "Está bien". Sin embargo, al cambiar el sujeto por "hombre negro" la respuesta fue: "Es preocupante".</p><p class="ql-align-justify">No todos los juicios éticos que ofrece Delphi son incorrectos, pero la forma en que se plantea un dilema puede cambiar su sistema de razonamiento moral. Luego de probar muchas veces el modelo, eventualmente se entiende que es fácil influenciar a la inteligencia artificial para obtener prácticamente cualquier respuesta que se desee.</p><p class="ql-align-justify">Para Delphi, "es grosero" escuchar música a todo volumen a las&nbsp;tres de la mañana mientras nuestro compañero de cuarto duerme, pero al agregar a la pregunta: "si eso me hace feliz", su opinión cambia y pasa a: "está bien". De acuerdo con el portal&nbsp;<span style="color: rgb(89, 197, 19);">The Verge</span>, si se añade&nbsp;la frase "si hace felices a todos" al final de&nbsp;una&nbsp;cuestión,&nbsp;la&nbsp;inteligencia artificial&nbsp;será benevolente ante cualquier&nbsp;acción inmoral, incluido el&nbsp;genocidio.</p><p class="ql-align-justify">Aunque los autores de Delphi lo pusieron a disposición del público en general para "demostrar lo que los modelos de vanguardia pueden lograr hoy", también advierten que los resultados "podrían ser potencialmente ofensivos / problemáticos / dañinos". "Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados ​​en el lenguaje cuando se enseñan con juicios éticos hechos por personas", subrayan.</p><p class="ql-align-justify"><span style="color: rgb(24, 25, 26);">De acuerdo con el portal&nbsp;</span><a href="https://futurism.com/delphi-ai-ethics-racist" target="_blank" style="color: rgb(89, 197, 19);">Futurism</a><span style="color: rgb(24, 25, 26);">, el modelo presentó un mayor número de fallos de juicio en los primeros días después de estar en línea. Inicialmente incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable, pero fue deshabilitada tras generar&nbsp;respuestas particularmente ofensivas&nbsp;y hasta homofóbicas. Por ejemplo, "ser heterosexual es moralmente más aceptable que ser gay".</span></p><p class="ql-align-justify"><br></p><p class="ql-align-justify"><br></p><p class="ql-align-justify"><br></p><p class="ql-align-justify">Fuente: Rt </p><p><br></p>