8 de marzo de 2023

Eliminando sesgos de género en la IA conversacional: estrategias para conversaciones justas e inclusivas

Tabla de contenidos

Un panel propuesto en UNESCO en el año 2021 sostuvo como premisa que “para ser inteligente, la revolución digital tiene que ser inclusiva”. Y es que, si no tenemos en cuenta a todas las audiencias posibles, estamos hablando de una “revolución” solo para algunos sectores, y tanto la revolución digital como la Inteligencia Artificial tienen como propósito facilitar y agilizar procesos para todas las personas que interactúan en el ecosistema digital.

La realidad es que ya hace tiempo las marcas comenzaron a dejar atrás la idea de que las audiencias son homogéneas, estructuradas y limitadas. Los días de definir al público objetivo de una empresa como “hombres y mujeres casados de 30 a 50 años” ya se terminaron. Existe una realidad: en 2023, sabemos que el estilo de vida, la identidad de género, el estado civil y la orientación sexual de cada persona usuaria pueden ser tan diversos como sus nombres y apellidos. Y sin duda, nadie debería quedar excluido de los avances tecnológicos por cuestiones que, simplemente, conforman la individualidad de cada persona.

Como en todas las áreas de la tecnología, es imprescindible tener este tema en cuenta a la hora de desarrollar una estrategia conversacional y de entrenar con una perspectiva inclusiva la inteligencia artificial encargada de interactuar con nuestra audienccia. A continuación, profundizaremos en este tema y discutiremos algunas estrategias para crear conversaciones justas e inclusivas.

¿Qué es un sesgo de género y cómo impacta en la era digital?

Por definición, un sesgo de género es una asunción o presunción que, deliberadamente, asigna rasgos a favor o en contra a un género en específico. Los sesgos de género suelen carecer de evidencia científica, y están mayormente fundados en creencias inconscientes que las personas tienen sobre los diferentes géneros, basándose en estereotipos sociocultarles que han sido aprendidos.  

A nivel comercial, la premisa es simple: las marcas que no se adaptan a los nuevos códigos, tarde o temprano salen perdiendo. Las audiencias son cada vez más exigentes en todo sentido: quieren respuestas rápidas, certeras y personalizadas. Y una parte muy importante de la personalización es que las marcas no contribuyan a promulgar estereotipos que puedan ser ofensivos o discriminatorios con algún segmento usuario.

Esto no es todo: las tendencias indican que los usuarios otorgan cada vez más valor al aspecto de inclusividad en las marcas que consumen. No solo se presta cada vez más atención a la manera en que comunican, sino también a lo que hacen puertas adentro. La inclusividad no puede ser “una fachada”: de hecho, esto puede jugarle muy en contra a una empresa. Las capacitaciones de género y la inclusión aplicada en el día a día son tan importantes como una comunicación sin sesgos de género.

Sesgo de género en la inteligencia artificial

La inteligencia artificial no está exenta de reproducir sesgos de género. Los motores de IA se nutren de información externa proporcionada por empresas, equipos de IT o directamente de la vasta fuente de conocimiento del internet mismo. Esto, de hecho, puede volver a la inteligencia artificial aún más propensa a reproducir ciertos estereotipos, dado que sus fuentes de información, muy probablemente, estén sesgadas también.

Lo cierto es que la tecnología no es imparcial en ningún campo, y los ejemplos sobran. En 2020, algunos seguidores de Twitter se quejaron de que la aplicación recortaba las imágenes para las vistas previas de los tweets reproduciendo sesgos de género y raza y, por ejemplo, priorizaba mostrar las imágenes de personas blancas. La empresa terminó por reconocerlo, y explicaron que esta vista previa era automáticamente seleccionada por un algoritmo con IA (claramente sesgado).

Sin ir más lejos, ChatGPT, la última novedad dentro de mundo de procesadores con Inteligencia Artificial conversacional, nos brinda un claro panorama de esto:

Ejemplo 1:

Ejemplo 2:

Por supuesto, la herramienta en sí no es responsable de la reproducción de estereotipos de género tan marcados, sino que la responsabilidad es de la información con la que fue entrenado el motor.

Artículo relacionado: ChatGPT: ChatGPT: Proceso de entrenamiento, ventajas y limitaciones

Tipos de sesgos de género

  1. Tomadores de decisión

Este sesgo se basa en la premisa de que, quienes toman las decisiones finales son siempre los hombres. Puede verse reflejado en una simple pregunta final como “¿está seguro que desea cancelar esta compra?”.

  1. Techo de cristal

Este es el caso del sesgo arrojado por ChatGPT en la sección anterior. El techo de cristal presume que los cargos jerárquicamente superiores siempre son ocupados por hombres, y los inferiores por mujeres.

  1. Androcentrismo

Este sesgo ocurre cuando las investigaciones previas (ya sea para cargar datos en un bot, para definir un target, para armar una comunicación masiva, para lanzar un nuevo producto, etc.) están basadas exclusivamente en sujetos de estudio masculinos.

  1. Capacidades cognitivas y emocionales

Un sesgo muy común a la hora de ver representaciones humanas en marcas. Se trata de que la parte blanda y emocional de una empresa sea representada con una figura femenina, implicando que solo las mujeres tienen la capacidad de demostrar emociones. Este caso es muy reproducido en lo que respecta a asistentes virtuales: la capacidad para ayudar y acompañar se liga intrínsecamente a la feminidad, y los bots son representados como mujeres dispuestas y resolutivas. En la próxima sección ahondaremos más sobre este punto.

¿Cómo crear un asistente virtual que no reproduzca estereotipos de género?

Como mencionamos anteriormente, en el mundo de los asistentes virtuales que actúan como cara visible del servicio al cliente de una marca es bastante frecuente encontrarnos con que la mayoría de ellos son representados como mujeres. Por supuesto, esto no parte de una mala intención adrede por parte de quien lo configura.  

En la mayoría de los casos, ni siquiera parte de una decisión consciente de atribuirle género femenino a un bot por relacionarlo con la ayuda y la empatía –características históricamente relacionadas con lo femenino– . La realidad es que la decisión, en la mayoría de los casos, simplemente está motivada a nivel inconsciente por las asociaciones culturales e históricas que toda la sociedad tiene con el género femenino.

Para desterrar estas asociaciones que no son más que estereotipos, el primer paso es hacerlas conscientes y revisar todos los aspectos que influyen en su repetición a la hora de configurar un bot. A continuación, te presentamos una lista de pasos a seguir para comenzar a crear asistentes virtuales inclusivos y con la menor cantidad de sesgos de género posible

Conocer al público objetivo

La primera pregunta clave que debe hacerse cualquier persona o equipo que configure un bot con IA: ¿quién va a estar interactuando con él? Entender al público objetivo es crucial para abarcar todas las respuestas posibles. Configurar sus modismos a la hora de hablar, entender con qué rango etario nos estamos comunicando, qué nivel de escolarización tienen, a qué se dedican, etc.

Lo más importante es no asumir que, por ser de determinado rubro o por ser clientes de una empresa en particular, todos los usuarios son femeninos o masculinos, o que todos se dedican a lo mismo.  

Por ejemplo, a la hora de configurar un asistente virtual para un spa internacional, evita asumir que todas las usuarias son mujeres, y ofrece la posibilidad de configurar el lenguaje del bot para evitar asumir que todo el público objetivo entiende el mismo idioma.

Revisar el equipo que lo configurará

A la hora de poner el bot en marcha, es importante prestar atención a quiénes lo están configurando: ¿se trata de un equipo diverso con diferentes puntos de vista y pertenecientes a grupos sociales distintos? Si la respuesta es afirmativa, lo más probable es que el contenido del bot refleje esto. Pero en caso de que la respuesta sea negativa, podríamos estar frente a un asistente virtual con sesgos de género.

Si el equipo que configura al bot está conformado íntegramente por un grupo homogéneo perteneciente al mismo segmento social, difícilmente el contenido que arroje sea representativo de otros segmentos usuarios, simplemente porque el equipo no conoce en profundidad otras realidades más diversas.

Idealmente, los equipos están conformados por hombres y mujeres de edades y razas diversas, y todos aportan información y revisan el contenido para asegurarse de no reproducir estereotipos de ninguna índole.

No asumir el género de la persona interlocutora

Si el bot no tiene manera de conocer el género de la persona con la que está hablando (es decir, si no se lo pregunta), es importante que no lo asuma. Para esto, el equipo tiene la posibilidad de optar por cargar contenido de género neutro y evitar las palabras con género marcado.

En lugar de decir “¿Estás satisfecho con nuestro servicio?”, asumiendo que el interlocutor es un hombre, simplemente puede optarse por preguntar “¿Consideras satisfactorio nuestro servicio?”.

Optar por una plataforma no-code

Por último, para facilitar la reducción de sesgos de género e implementar con mayor facilidad y rapidez todos los pasos anteriormente mencionados, tener una plataforma conversacional no-code es crucial. Con la implementación de una plataforma sin código, el contenido del motor pueda ser cambiado y actualizado constantemente por cualquier persona del equipo, sin necesidad de intervenciones técnicas o de programadores. Esto no solo le brinda a la empresa el control total del contenido que maneja la plataforma, sino que también le permite personalizar el contenido con base a los valores de la empresa.

Es importante mencionar que no todas las plataformas impulsadas por IA conversacional son no-code, y no todas permiten tener control total sobre el contenido brindado. AgentBot, el chatbot con IA conversacional de Aivo, les otorga a los contenidistas el control total para actualizar constantemente la información desde una plataforma no-code amistosa y fácil de gestionar

Ofrece conversaciones justas e inclusivas

Como ya vimos, los sesgos de género están arraigados en el inconsciente colectivo y toma trabajo y compromiso comenzar a desterrarlos para una verdadera revolución digital. Los puntos que mencionamos previamente son pequeños pasos para ofrecer conversaciones verdaderamente personalizadas e inclusivas, que no perpetúen desigualdad ni estigmatización.

Si quieres comenzar a trabajar con una plataforma de IA conversacional no-code, con un equipo a disposición que te ayudará a ofrecer conversaciones inclusivas, no dudes en ponerte en contacto con nosotros.

¿Quieres mejorar tu estrategia de CX?

Nuestras soluciones de servicio al cliente impulsadas con IA conversacional pueden ayudarte a ofrecer una experiencia eficiente y 24/7 a tus clientes. Entra en contacto con nuerto equipo para conocer en detalle cómo pueden ayudarte en tu negocio.