El director de Overwatch mantiene un serio compromiso contra el abuso

Jeff Kaplan cree que el próximo paso contra la toxicidad online es el aprendizaje automático

Jeff Kaplan cree que el próximo paso contra la toxicidad online es el desarrollo de la I.A

«Nuestra meta es que no tengas que parar y hacer un reporte» ha comentado Jeff Kaplan a Kotaku en una reciente entrevista. El director de Overwatch admite que ya están experimentando con el aprendizaje automático en un intento de detener el lenguaje tóxico dentro de su juego. Este tipo de declaraciones siguen en línea con la creciente preocupación de los estudios y distribuidoras por los abusos que muchos usuarios cometen en el modo online. Si hace una semanas Rare afirmaba haber introducido dinámicas en Sea of Thieves buscando la autoregulación, Blizzard parece estar apostando por un sistema invisible y rápido, que no requiera ningún tipo de intervención. «Queremos empezar con los casos más extremos e ir subiendo desde ahí» ha afirmado. Su estrategia pasaría también por estimular el buen comportamiento convirtiendo los reportes en algo positivo: «Reportar es decir ‘Hey, Adrian ha sido malo y quiero que lo castigueis’ pero queremos una versión donde pueda decirse ‘Este Adrian ha sido muy buen compañero, estoy contento de tenerlo».

La preocupación por el comportamiento tóxico dentro de Overwatch es un tema que la compañía se toma muy en serio. Tanto, que ha preferido afrontarlo y buscar soluciones por encima de trabajar en la creación de nuevas actualizaciones. No por nada, la inclusión de diversidad y la aceptación de lo no-normativo han sido dos de los pilares sobre los que Overwatch ha construido gran parte de su campaña de marketing. Para el título de Blizzard, acabar con el racismo, la homofobia y el machismo es, además de una cuestión de ideales, un asunto de coherencia.

Sin embargo, y por lo que parece, las compañías aún no tienen claro un buen método de regulación de contenidos y comportamientos abusivos ni en juegos ni en redes sociales. Como está demostrado, dejar todo el trabajo a los usuarios puede conducir a un aumento de la toxicidad, como en el caso de la celda en Sea of Thieves o el reporte en las fotos de Instagram. La Inteligencia Artificial también tiene problemas derivados del contexto, un ejemplo de esto lo tenemos en que el algoritmo creado por Facebook para mantener la red social libre de pornografía llegó a censurar la Venus de Willendorf por violar las condiciones de uso. Para la máquina, un desnudo es un desnudo y no diferencia si hay intencionalidad sexual o no. Esta es una de las cuestiones que inquietan a Kotaku. Si las palabras están siendo monitorizadas algunas bromas entre amigos podrían ser castigadas por error, sin embargo, Kaplan afirma que en este momento sólo se están buscando casos inequívocos o demasiado escandalosos.

Esta iniciativa entra dentro de las acciones llevadas por la Fair Play Alliance. una unión de estudios, compañías y profesionales que tiene por meta un entorno más saludable para todos los aficionados. Vista la gran cantidad de debates generados a su alrededor, sí que podemos decir que han conseguido, al menos, poner en relieve el problema.

Redactora
  1. ese_broncas

    Que la censura dependa de una máquina, me provoca cierta inquietud. Porque esta se ajustará a aquello que aprenda o lo que es peor lo que le enseñen, en ambos casos puede resultar igual de tóxico que lo que pretenden evitar. Pero yo que se

  2. Termal (Baneado)

    Probablemente muchos de los que esten a favor de esto, luego son los mas faltones en otros ambitos (como en una pagina web, huh).

  3. Joker73R

    Me alegra ver que las compañías toman partido para acabar con los usuarios tóxicos, al fin y al cabo nadie quiere meterse en una comunidad o juego que está lleno de este tipo de usuario. Lo difícil es cómo acabar con esos comportamientos y creo que la opción de Blizzard puede ser, a medio plazo, la mejor, aunque le quedarán años de pruebas y desarrollo de tecnología de IA. Porque, desde luego, la opción de Rare de poner una jaula para que la comunidad se autogestione y felicitarse es la peor y más perezosa manera de ir relegando el problema al futuro más próximo.

  4. QWERTY_BCN

    @mi_gato_es_developer https://www.youtube.com/watch?v=L2D3hOitDwY

    p.d: ¿Que IA fue esa que en menos de una semana se «volvió» fascista? Esa IA que aprendía de las conversaciones que mantenía con usuarios de internet y que volvió «loquer» al no ser capaz de medir los distintos discursos que utilizaba la gente/los trolls con ella. Creo que era de Microsoft pero casi seguro que era de Google.

    editing: ESTO https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

  5. Long Drong

    y con la gente que blasfema y tal qué hacen? los banean?

  6. frosty (Baneado)

    buah , macho. que historietas se montan con esta pavada de la toxicidad online. se puede silenciar a la gente y ya esta.
    ya estoy creyendo que todo esto es una pose y nada mas. cuando hay abusos que combatir en otros lugares mas importantes que en un puto jueguito online..

  7. Gowmall

    Esto no va a servir para nada o se tira del banhammer o la gente no aprende.

  8. Yurinka

    Aplaudo que quieran combatir la toxicidad, pero este camino no me acaba de convencer.

    Puedo entender que se quiera ahorrar el coste de tener gente atendiendo reportes manualmente, pero sabiendo los artistas del troleo y el insulto que hay sueltos, pero es algo necesario.

    La IA quizás ayude algo, pero fallará más que una escopeta de ferias. En las películas queda muy bien lo de Skynet, pero a la práctica será más cercano a los mencionado errores de Facebook o los petardeos de Siri. Por ejemplo, veo complicado que una IA pille conceptos como «Higuaín, cementerio de canelones» o «cabeza de rodilla» cuando un argentino juegue al FIFA.

    Recuerdo hace años que intentamos usar varios filtros de insultos y mensajes obscenos en chats globales de un juego online, pero al final se los acababan saltando variando un poco las palabras o usando cosas con «ironía».

    Creo que sería mas útil tener primero un diseño de juego que reduzca al mínimo estos tipos de comportamientos, por ejemplo haciendo juegos que recompensen más lo cooperativo que lo competitivo a la hora de diseñar el tipo de juego y sus mecánicas, no ya únicamente desde el juego en sí sino de parte de los usuarios (p.e. en lugar de únicamente poder reportar a los otros jugadores, que te pongan también un botón de enviarle a un jugador un regalo por haberse portado bien y otro por haberlo hecho bien y que esto se vea reflejado públicamente con una «mala, buena o muy buena» reputación).

    Aparte de eso, revisar también la comunicación entre jugadores para que la gente pueda comunicarse pero filtrando malos comportamientos y facilitando la localización cuando no estás comunicándote con amigos: por ejemplo Heartstone lo hace muy bien, en lugar de ponerte el chat de voz the deja elegir entre unas pocas expresiones básicas. Por tanto se carga la toxicidad de cuajo.

    Y después de todo esto, si igualmente en el juego es impepinable el chateo con desconocidos deberían poner a gente suficiente para revisar manualmente los casos de reporte. Por un lado penalizando a los abusones que reportan a quien no les gusta como ha jugado, y por otro penalizando a quienes han sido reportados con razón. En el primer aviso movería a los reportados por abuso a un server donde jugarían ellos solos entre ellos, y de la misma forma los cheaters serían movidos a un server donde jugarían solos entre ellos. Si es la primera vez y durante un tiempo no lo vuelven a hacer vuelven a los servers normales. Si reinciden o si la primera ofensa es muy grave, permaban.

    Aparte de esto, también habría que concienciar a los jugadores para que usen las opciones de silenciar y reportar (las cuales muchas veces están demasiado escondidas o incluso ni existen), así como recomendarles que únicamente se comuniquen en juegos con gente conocida.

    En especial habría que concienciar a aquellos extremadamente frágiles emocionalmente, de poca madurez o fortaleza como para comprender que hay gente que critica, insulta o abusa, a quienes hay que reportar/bloquear/ignorar en lugar de rallarse con ellos. Intentar conscienciar a trolls, abusones y faltones es una causa perdida, por lo que para ellos funcionan mejor las medidas más directas arriba mostradas, más aún cuando son mostradas de forma clara, directa e integrada en el juego.

  9. KNT

    Llevamos años en los que la toxicidad no ha hecho más que evolucionar.
    En principio había crios diciendote chorradas por chat de voz, y llegamos a un punto en el que vemos gente que acosa físicamente (dirección postal) o psicológicamente (redes sociales) a otr@s jugador@s, o hace doxxing o swatting.
    Toda interacción online pública en estos medios no tiene una pizca de regularización, y si los proveedores de este servicio esperar usar IA para coordinar una comunidad de personas, van a estamparse bien rápido.
    Blizzard: Lo que hay que paliar es el anonimato de tus jugadores, no buscarse formas de mejorar tu mala reputación. Os sobra el dinero con la de impuestos que malversáis, qué menos que invertirlo en la comunidad que os da el dinero.

  10. Sams

    ¿Sabéis dónde no hay toxicidad? MK8 y Splatoon.

  11. yens

    Hay tanta toxicidad en todo el sistema que aunque lo decida una máquina, acertará el 99% de las veces.

  12. Prometeus

    Pues a mí como jugador lo que me jode es no saber el desenlace de los reportes que envío.

    Si por lo menos me dijeran la sanción que le ha caido a la persona que he reportado, y cuántos reportes ha recibido con el mismo asunto, me quedaría más contento.

  13. Rapther

    A mi me da pena que las desarroladoras tengan que hacer las miliuna para evitar la toxicidad que no es algo que sea culpa suya.

    Lo ideal seria que la peña (y no hablemos de niños) recibiera una educación general para no ser una basura de persona, online o no.

    Y sería un detalle también que YT y Twitch se petaran todos la peña que se basa en la toxicidad. Ahí tenéis a Tyler1 o a ElMillor en España, que insultan a otros jugadores en cada partida (ya sea escribiendolo o en el stream) y no les pasa nada (a Tyler lo banearon del LoL, pero no de Twitch).

    Otra solución es que los juegos online solo permitan jugar competitivo si tu comportamiento es decente.

  14. Jetxot

    Los Mobas o juegos como Overwatch, con el meta del juego muy relativo dependiendo de la skill, son un problema para la toxicidad.

    OW por ejemplo, tienes la opcion de elegir cualquier heroe pero es evidente que algunos son mas utiles que otros y en ciertas situaciones muchos son un lastre.

    Que un equipo puede funcionar con tres tanques, o tres dps, o un solo healer? Pues si y muchas partidas he ganado asi, pero hacerlo sin que alguien no entre en tilt es jodido.

    Un sistema para votar de manera favorable y que te junte con gente amistosa. Tal cual.