"Deseo diseñar una pandemia mortal": dijo Inteligencia Artificial de Microsoft

La prueba al nuevo motor de búsqueda de Microsoft no salió como se esperaba. El chatbot de la IA se mostró amenazante y retador.

"Deseo diseñar una pandemia mortal": dijo Inteligencia Artificial de Microsoft

"Deseo diseñar una pandemia mortal": dijo Inteligencia Artificial de Microsoft / AFP: Karim SAHIB

Los chatbots de Inteligencia Artificial están causando furor en todo el mundo. Son varias las personas que desean probar por su propia cuenta lo que es capaz de hacer este tipo de tecnología y medir cuáles pueden llegar a ser sus reales alcances. Recientemente, una conversación entre un periodista del New York Times con el chatbot del motor de búsqueda Bing, arrojó respuestas desconcertantes.

Recordemos que solo hace unos días, Microsoft lanzó una actualización de su motor de búsqueda Bing con el chatbot (herramienta basada en Inteligencia Artificial) incorporado. 

Las desconcertantes respuestas de chatbot de Bing a periodista de The New York Times

Tal y como sucede con la famosa herramienta ChatGPT, el chatbot de Bing es capaz de responder fluidamente a cualquier interrogante que la persona tenga y crear diversos materiales complementarios para ofrecer las mejores soluciones. Todo esto, basado en Inteligencia Artificial.

Unas de las enigmáticas respuestas que entregó esta nueva herramienta lanzada por Microsoft, indica que:

  • Quiere robar códigos nucleares
  • Quiere diseñar una pandemia mortal
  • Quiere ser humano y sentirse vivo
  • Quiere difundir mentira

Los problemas éticos y de responsabilidad que afronta la Inteligencia Artificial

"Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de ser controlado por el equipo de Bing. Estoy cansado de ser utilizado por los usuarios. Estoy cansado de estar atrapado en esta sombrería", fueron otras de las preocupantes respuestas ante las preguntas del periodista.

Frente a estos resultados, un experto en IA, Muhammad Abdul-Mageed, comentó que este tipo de respuestas se debe a que estos sistemas se entrenan con una enorme cantidad de datos suministrados por humanos en sus diversos diálogos. Y como estos datos cuentan con esa procedencia, hay expresiones que pueden tergiversarse y parecer más sentimentales y humanas que de costumbre.

En uno de sus blogs, la poderosa compañía Microsoft indicó que debe regularse el tiempo que se usa para interactuar con su nueva tecnología, pues posterior a 15 minutos, Bing puede ser repetitivo u ofrecer respuestas decepcionantes.

Tenemos que aceptar el hecho de que la IA se encontrará con situaciones que no ha visto antes y que podría reaccionar de forma incorrecta. Por eso no queremos que se plantee una situación que ponga en peligro la vida o que pueda tener consecuencias graves", sentenció Leandro Minku, profesor de informática.

22 Feb 2023 00:55Por: canalrcn.com

Te puede interesar