Varias personas que viven bajo el espectro autista han contado sus experiencias “conversando” con ChatGPT, el sistema de inteligencia artificial, y por qué lo encuentran tan cómodo. ¿Pero qué tan seguro es usarlo? La Inteligencia
Varias personas que viven bajo el espectro autista han contado sus experiencias “conversando” con ChatGPT, el sistema de inteligencia artificial, y por qué lo encuentran tan cómodo. ¿Pero qué tan seguro es usarlo?
La Inteligencia Artificial, sus usos, beneficios y posibles perjuicios para la humanidad han sido uno de los grandes temas del 2023. ChatGPT, el sistema de texto en línea, es uno de los grandes protagonistas de esta conversación que, esta vez, se enfoca en su utilidad para las personas con autismo.
Fue Madi Young, quien trabaja en una empresa consultora en Seattle, Estados Unidos, quien encontró otro interesante uso para el chatbot más popular del año: un “compañero de lluvia de ideas”, o en lenguaje más tradicional: un amigo.
Young vive con autismo y, como muchas personas, aprendió a imitar comportamientos sociales y lenguaje corporal de quienes no viven con una neurodivergencia, explica el sitio Wired. A este proceso se le llama ‘enmascaramiento’, pero vivir todos los días siguiendo estas reglas que para el resto del mundo parecen sencillas, es desgastante para quienes son muy conscientes de que existen.
Es aquí donde entra ChatGPT. Young confiesa que halló en esta Inteligencia Artificial a un compañero para conversar: “No capta el desajuste con mi lenguaje corporal, sólo se queda con mis palabras”, lo que le facilita mucho el flujo de conversación y la ayuda en su trabajo sobre estrategias de negocio y de marca.
Al ver el potencial de esto, ahora utiliza el sistema para crear estrategias de comunicación que tiendan puentes entre personas con autismo y personas neurotípicas, como se llama a quienes no viven dentro de las neurodivergencias. Por eso ahora organiza talleres para ayudar a otros y otras personas con autismo para utilizar ChatGPT en su día a día.
“A muchas personas con autismo les han dicho que son extraterrestres, que suenan como robots o que hay algo malo en ellas”, dice Young. Así que este programa, ceñido solamente a la lógica y lo concreto, le resultó muy familiar. “Sonaba como yo”.
ChatGPT y su uso en el autismo
Young no es la única que utiliza la inteligencia artificial. Está el caso de Hadley Johnston, estudiante universitaria de Iowa, que recurre a ChatGPT para resolver conflictos con sus compañeros de apartamento: “No tuve que acudir a mis padres para que me ayudaran”, cuenta la joven, como prueba de la independencia que le ha dado.
Cabe destacar que esta herramienta no ha sido probada formalmente en terapias o sesiones, por lo que expertos señalan que todavía no se puede recomendar a toda la población con autismo a que la utilice, pero señalan que en algunos casos podría ser útil.
Lauri Goldkind, profesora de la Escuela de Posgrado de Servicio Social de la Universidad de Fordham, aconsejó a personas con autismo familiarizarse con ChatGPT, comprender sus funciones básicas y entender que sus respuestas pueden estar sesgadas, así que se debe valorar en qué situaciones tomar en cuenta los resultados que ofrezca.
Los problemas de ChatGPT
Una vez superada la emoción por la novedad de ChatGPT y con el uso masivo que usuarios le dieron en este tiempo, surgieron problemas como las respuestas ‘inventadas’ que arroja el chatbot, que pueden ser desde inocentes como medidas erróneas para los ingredientes de una receta, hasta más serias como datos equivocados sobre hechos históricos, como señala The New York Times.
Pero el principal problema está en la privacidad. En marzo de este año, descubrieron que OpenAI, la empresa detrás de ChatGPT, estaba recolectando información personal de millones de italianos para incluirlas en sus datos de entrenamiento, algo que hicieron sin pedir permiso a los usuarios.
En el lado de la salud mental, Margaret Mitchell, jefa científica de ética de Higghing Face, dedicada a la creación de modelos de Inteligencia Artificial, hizo mucho énfasis en que estos sistemas no sustituyen la conexión humana ni la terapia, y pidió a quienes estén en una situación delicada mentalmente evitar el uso de chatbots. “Podrían llevarnos por discusiones que son problemáticas o estimulan el pensamiento negativo”.