Autarquía Sexto número | Page 7

mos al algoritmo, o bien su lógi- ca y, transparentemente, ajustar y re-evaluar el mismo. No es así con la AI. La AI, además de tomar de- cisiones complejas, hace cosas que, aunque sencillas para los humanos, son difíciles para las computadoras. Como entender de lo que estamos hablando o identificar objetos en una imagen y luego tomar una de- cisión difícil o arrojar un resultado. Para eso, hemos tenido que desa- rrollar algoritmos que se encarguen de cada aspecto necesario para la toma de decisión, y hacer que es- tos diferentes algoritmos trabajen juntos. A este modelo le llamamos Redes Neuronales Computaciona- les, pues están basados en cómo el cerebro humano entiende y ejecuta su toma de decisiones. Las Redes Neuronales (RN) pueden tomar las decisiones complejas que necesita- mos y que, en muchas ocasiones, ni siquiera son evidentes para el hu- mano promedio. El año pasado, la AI de piloto automático de un carro Tesla identificó un choque antes de que sucediera y metió los frenos en un tiempo de reacción que proba- blemente un humano promedio no hubiera podido realizar. En 2014, un algoritmo de visión computacio- nal identificó una relación entre dos pinturas que no había sido identifi- cada por historiadores del arte. El resultado de construir algoritmos tan complejos que usan modelos como las RN es que, a pesar de que nos traen grandes beneficios, sus decisiones no son transparentes para quien los desarrolla. No sabe- mos qué llevó a una red neuronal a tomar una decisión o producir un resultado porque las capas de cóm- puto y de datos que usa para entre- narse son excesivamente vastas y complejas. La mejor forma que ten- emos de saber que construimos bien una RN es cuando contrastamos su resultado con la realidad y vemos su positividad. En el caso del carro de Tesla, por ejemplo, sabemos que funcionó porque consiguió evitar un choque. A veces, como es de esperarse, una RN no da un resultado claro ni es- perado. Los flash-crashes del NAS- DAQ son un ejemplo. Este año, la noticia de que Facebook apagó un par de inteligencias artificiales que se comunicaron de maneras que los desarrolladores no esperaban dio la vuelta al mundo. La noticia estaba inflada, pues esas AI no estaban to- mando decisiones que perjudicaran a nadie; sin embargo la decisión de apagarla constituye una de las más importantes directrices para manejar redes neuronales: si no está produciendo el resultado que esperas, apágala. ¿Por qué? Pri- mero porque no sirve para lo que la construiste. Pero especialmente porque no tienes manera de saber cómo llegó a esas decisiones. Las AI que Facebook apagó no repre- sentaban ningún peligro pero, ¿qué tal si les confiáramos decisiones más importantes, como la distribu- ción energética? ¿O la compra-ven- ta de acciones? Después de la ola de flash-crashes en el NASDAQ los humanos introdujeron un compo- nente humano a la toma de decisio- nes por AI. Ésa es la segunda direc- triz que nos parece importante a la hora de hablar de AI. Toda AI debe- ría tener un componente humano en su proceso que pueda confirmar las decisiones. Ya sea en el proceso de desarrollo o en el proceso de uso. Sin embargo, los humanos también tienen sesgos y éstos se reproducen en la inteligencia artificial. En una ocasión estuvimos en una presenta- ción de un algoritmo de reconoci- miento de lenguaje natural, esto es, el algoritmo que reconoce tu voz, las palabras que dices y lo que estás tratando de decir. El algoritmo fun- cionaba perfectamente hasta que lo probó una mujer. No funcionaba. Al instante los desarrolladores su- pieron el porqué: en 6 años de de- sarrollo, nunca habían entrenado el algoritmo con voces de mujer. La ciencia tiene numerosos ejemplos de cómo, al no incluir a mujeres o distintas poblaciones en el proceso de ideación, desarrollo y evalua- ción, deriva en inevitables sesgos que a su vez provocan un impac- to negativo en las poblaciones no representadas. Las inteligencias artificiales no son la excepción. A medida que les delegamos nuestra toma de decisiones, es importante la representación en los procesos de construcción. Quizá al filósofo le emocione saber, como al tecnológo, que hay espa- cio en la AI para sus contribucio- nes. Las redes neuronales utilizan modelos que son conceptualmen- te familiares al filósofo. Las RN perciben datos, ya sea a modo de sonidos, texto, o imágenes (con re- percusiones en la epistemología); hacen procesamiento de lenguaje natural y los transforman en con- ceptos que valoran o evalúan (esté- ticamente) y los utilizan para operar en la realidad (éticamente). Pueden ser sujetos éticos ya que sus com- portamientos tienen impacto en la actividad humana; quizá, al menos en este punto del siglo XXI no son responsables de sus acciones, pero es necesario entender cómo regu- larlos sin coartar los beneficios que nos pueden traer. Y para ello nece- sitamos también de la filosofía .▪ Ali González García Haydé Martínez Landa Autarquía 7