{"id":17083,"date":"2021-01-11T10:32:22","date_gmt":"2021-01-11T08:32:22","guid":{"rendered":"http:\/\/design-toolkit.recursos.uoc.edu\/?p=17083"},"modified":"2021-02-17T16:51:04","modified_gmt":"2021-02-17T14:51:04","slug":"agencia","status":"publish","type":"post","link":"http:\/\/design-toolkit-test.uoc.edu\/es\/agencia\/","title":{"rendered":"Agencia"},"content":{"rendered":"<h2>\u00bfQu\u00e9 es?<\/h2>\n<p>Agencia es un t\u00e9rmino filos\u00f3fico para hacer referencia a la <strong>manifestaci\u00f3n de la capacidad de una entidad (alguien o algo) para tomar una decisi\u00f3n y actuar<\/strong>. Una piedra es inerte y por tanto no tiene capacidad de actuar, de manera que no tiene agencia. Puedo tomar esa piedra y lanzarla a la casa de Lev Manovich, y romperle una ventana. Por lo tanto, tengo agencia, aunque en este caso la use de manera muy pobre.<\/p>\n<p>\u00bfPor qu\u00e9 usar un t\u00e9rmino tan abstracto en teor\u00eda del dise\u00f1o? Debido a la revoluci\u00f3n de las tecnolog\u00edas digitales, se ha creado un nuevo tipo de dispositivos capaces de llevar a cabo acciones por s\u00ed mismos que no son comparables a los tipos de criaturas que normalmente se suponen capaces de tomar decisiones y actuar, b\u00e1sicamente humanos. As\u00ed, un <em>bot<\/em> que reenv\u00eda noticias en Twitter en funci\u00f3n de una serie de par\u00e1metros programados tiene agencia, aunque a escala biol\u00f3gica no sea muy diferente de la piedra que se comentaba antes.<\/p>\n<p>Es importante destacar que se habla de la manifestaci\u00f3n de la capacidad de actuar y no meramente de la capacidad de actuar. Es decir, si alguien o algo tiene la capacidad de actuar, pero no la manifiestan en ning\u00fan momento, no se dir\u00e1 que tenga agencia. Por ejemplo, si se programa un <em>bot<\/em> en Twitter para reenviar noticias sobre el cambio clim\u00e1tico siguiendo una serie de par\u00e1metros, pero ese <em>bot<\/em> no est\u00e1 conectado a Internet y siempre est\u00e1 ah\u00ed, durmiendo en un disco duro, no se dir\u00e1 que ese <em>bot<\/em> tiene agencia. Para tener agencia hay que manifestarse, llevando a cabo alg\u00fan tipo de acci\u00f3n.<\/p>\n<p>Para que haya agencia, es importante tambi\u00e9n <strong>que se tome una decisi\u00f3n<\/strong>. Es decir, el sistema con agencia debe poder recoger informaci\u00f3n sobre el mundo exterior, analizarla, tomar una decisi\u00f3n y llevar a cabo la acci\u00f3n asociada a esa decisi\u00f3n. Si la acci\u00f3n es un mero resultado de un proceso mec\u00e1nico no se puede hablar de agencia.<\/p>\n<p>Pongamos un ejemplo sencillo: imaginemos una monta\u00f1a nevada en invierno y, en la cima, un \u00e1rbol solitario. Cae una rama que provoca que una serie de piedras se deslicen por la ladera. Ese movimiento genera un alud y la nieve empieza a caer descontroladamente. Lev Manovich estaba esquiando por all\u00ed, ve venir la nieve y acelera hasta ponerse a salvo bajo una cornisa.<\/p>\n<p>En la primera parte del evento, la rama que cae, no se habla de agencia, aunque se haya generado una acci\u00f3n, el alud, pues todo el proceso ha sido puramente mec\u00e1nico. Ni las ramas, ni las piedras ni la nieve han tomado una decisi\u00f3n. Por el contrario, cuando Manovich decide resguardarse bajo una cornisa, aqu\u00ed si se puede hablar de agencia, pues toma una decisi\u00f3n a partir de la informaci\u00f3n que obtiene con su sentido de la visi\u00f3n.<\/p>\n<p>Imaginad ahora que Manovich tiene una aplicaci\u00f3n en su m\u00f3vil que es capaz de detectar aludes a partir de un an\u00e1lisis del sonido que le rodea. Como antes, Manovich esqu\u00eda pero est\u00e1 ausente de lo que le rodea, pensando en su pr\u00f3ximo libro. Cuando las piedras empiezan a rodar y afectan la nieve, la <em>app<\/em> detecta as\u00ed una sutil indicaci\u00f3n s\u00f3nica y vibra para advertirle, sale de su enso\u00f1aci\u00f3n y se desliza hasta la cornisa. En este caso, se dir\u00eda que la <em>app<\/em> tiene agencia, aunque no disponga de consciencia, claramente, porque es capaz de analizar informaci\u00f3n, tomar una decisi\u00f3n y llevar a cabo una acci\u00f3n.<\/p>\n<h2>Formas de aplicaci\u00f3n<\/h2>\n<p>Una <strong>teor\u00eda o modelo sobre la agencia<\/strong> puede aplicarse b\u00e1sicamente de dos modos. Por un lado, tenemos modelos que explican los grados y la capacidad de <strong>agencia de diferentes sujetos en un sistema<\/strong>. Estos modelos se desarrollan desde la sociolog\u00eda, la antropolog\u00eda, la psicolog\u00eda y la administraci\u00f3n de empresas. A este tipo de desarrollos se los conoce normalmente como <em>teor\u00eda de la agencia<\/em>.<\/p>\n<p>Por otro, tenemos la cuesti\u00f3n de c\u00f3mo <strong>dotar de agencia un sistema artificial<\/strong>. Esta es una tarea que se lleva a cabo desde la inform\u00e1tica y, especialmente, la inteligencia artificial (IA). La investigaci\u00f3n sobre estos temas se agrupa bajo el t\u00e9rmino gen\u00e9rico de <em>agencia en IA<\/em>.<\/p>\n<p>La teor\u00eda de la agencia se puede aplicar as\u00ed a organizaciones, analizando la agencia de los diferentes integrantes, estudiando de qu\u00e9 modo un agente determinado recibe \u00f3rdenes o puede darlas, delegando su responsabilidad en otros agentes. Se intenta as\u00ed localizar posibles problemas y d\u00f3nde un sistema puede mejorarse.<\/p>\n<p>En general, siempre que tengamos una red de agentes interconectados entre s\u00ed podemos desarrollar una teor\u00eda de la agencia, es decir, un modelo que nos permita establecer de qu\u00e9 manera la agencia se distribuye en la red. As\u00ed, no hace falta limitarnos a organizaciones empresariales, aunque ese sea el espacio m\u00e1s t\u00edpico en el que se aplica la teor\u00eda de la agencia. Pero podemos tener una teor\u00eda de la agencia de un grupo de <em>software<\/em> libre desarrollando un editor de texto para Linux, un equipo de f\u00fatbol, un batall\u00f3n de marines o el tr\u00e1nsito de entrada y salida de autom\u00f3viles en una ciudad grande.<\/p>\n<p>Algunas teor\u00edas incluyen solo agentes humanos, otros modelos incluyen tambi\u00e9n <strong>artefactos con agencia<\/strong>, que informan. As\u00ed lo hacen, por ejemplo, las teor\u00edas de la agencia basadas en el concepto de <em>cognici\u00f3n distribuida<\/em>. Pensemos en un avi\u00f3n comercial de transporte de pasajeros. Si queremos entender con propiedad las interacciones que se crean durante el proceso de vuelo, ser\u00e1 importante sin duda incluir piloto, copiloto y controlador a\u00e9reo, pero tambi\u00e9n habremos de incluir los diversos dispositivos que informan a piloto y copiloto sobre diferentes aspectos del avi\u00f3n y del entorno, as\u00ed como el piloto autom\u00e1tico, pues se tratan de artefactos con alg\u00fan tipo de agencia.<\/p>\n<p>En el dise\u00f1o de artefactos y productos interactivos podemos diferenciar cinco tipos de agencia, en funci\u00f3n de la cantidad de datos que se extrapolan para tomar la decisi\u00f3n que llevar\u00e1 a cabo la acci\u00f3n.<\/p>\n<h3>Agencia refleja<\/h3>\n<p>Aqu\u00ed, el sistema simplemente recoge datos actuales, presentes, y toma una decisi\u00f3n. El ejemplo cl\u00e1sico es un termostato. Supongamos que tenemos el termostato de una casa a 18 \u00baC. Mientras la casa est\u00e9 a una temperatura igual o superior a 18 \u00baC, el termostato no har\u00e1 nada. En el momento en el que la temperatura baje a 17 \u00baC, el termostato activar\u00e1 la calefacci\u00f3n hasta que la casa vuela a estar a 18 \u00baC, y en ese caso volver\u00e1 a apagar la calefacci\u00f3n. El termostato no tiene memoria y por tanto no usa informaci\u00f3n sobre cu\u00e1l era la temperatura hace media hora o hace cinco minutos. Solo reacciona ante la temperatura presente.<\/p>\n<p>En un entorno de <em>bots<\/em>, ser\u00eda una programaci\u00f3n muy sencilla en la que el <em>software<\/em> simplemente reacciona a la frase que ha escrito el usuario, sin tener en cuenta para nada lo que haya dicho el usuario anteriormente. Ser\u00eda un sistema de reglas muy sencillo, del tipo \u00abSi el usuario dice \u201cBuenos d\u00edas\u201d, contestar \u201cBuenos d\u00edas\u201d; si el usuario dice \u201c\u00bfComo est\u00e1s?\u201d, contestar \u201cMuy bien \u00bfy usted?\u201d\u00bb.<\/p>\n<div id=\"attachment_17271\" style=\"width: 208px\" class=\"wp-caption aligncenter\"><a href=\"\/wp-content\/uploads\/2021\/01\/34549_01-1.svg\"><img aria-describedby=\"caption-attachment-17271\" loading=\"lazy\" class=\"my-image wp-image-17271 size-full\" src=\"\/wp-content\/uploads\/2021\/01\/34549_01-1.svg\" alt=\"\" width=\"198\" height=\"430\" \/><\/a><p id=\"caption-attachment-17271\" class=\"wp-caption-text\">Agencia refleja<\/p><\/div>\n<h3>Agencia basada en un modelo<\/h3>\n<p>En este tipo de agencia, el agente dispone de alg\u00fan tipo de modelo descriptor de c\u00f3mo funciona el mundo y lo utiliza para cambiar su estado interno. El modelo que tiene el sistema le permite cambiar de estado interno, de manera que ante un mismo <em>input<\/em> la respuesta puede ser diferente, en funci\u00f3n de lo que haya pasado antes.<\/p>\n<p>Imaginemos un <em>bot<\/em> que tiene la regla de no repetir la misma respuesta m\u00e1s de una vez. Cuando el usuario ha dicho \u00abBuenos d\u00edas\u00bb el bot lo recuerda de modo que, si el usuario dijera otra vez \u00abBuenos d\u00edas\u00bb, en su nuevo estado interno el <em>bot<\/em> dir\u00eda algo diferente, quiz\u00e1s bromista, del tipo \u00abCaramba! S\u00ed que te gusta decir \u201cBuenos d\u00edas\u201d\u00bb.<\/p>\n<div id=\"attachment_17273\" style=\"width: 251px\" class=\"wp-caption aligncenter\"><a href=\"\/wp-content\/uploads\/2021\/01\/34549_02-1.svg\"><img aria-describedby=\"caption-attachment-17273\" loading=\"lazy\" class=\"my-image wp-image-17273 size-full\" src=\"\/wp-content\/uploads\/2021\/01\/34549_02-1.svg\" alt=\"\" width=\"241\" height=\"574\" \/><\/a><p id=\"caption-attachment-17273\" class=\"wp-caption-text\">Agencia basada en un modelo<\/p><\/div>\n<h3>Agencia basada en metas<\/h3>\n<p>Adem\u00e1s de un modelo y de unos estados internos variables, el sistema dispone de una serie de metas y objetivos a lograr, que har\u00e1n que se activen reglas diferentes del modelo en funci\u00f3n de qu\u00e9 objetivos se busquen con la interacci\u00f3n del usuario.<\/p>\n<p>Nuestro <em>bot<\/em> ya es un aparato bastante complejo, que no puede limitarse a reglas predefinidas, sino que empieza a tener algo de \u00abinteligencia\u00bb y dispone de alg\u00fan sistema deductivo que permita decidir qu\u00e9 reglas se deben activar en funci\u00f3n de qu\u00e9 metas sean m\u00e1s importantes. Tambi\u00e9n puede decidir cambiar de meta en funci\u00f3n de si hay cambios relevantes en el entorno.<\/p>\n<p>El <em>software<\/em> que acompa\u00f1a a uno de esos robots aut\u00f3nomos que se pasean por la superficie de Marte es de ese estilo. El robot tiene una serie de metas incluidas por los cient\u00edficos que lo han desarrollado y en funci\u00f3n de d\u00f3nde se encuentre, qu\u00e9 condiciones clim\u00e1ticas haya en Marte, cu\u00e1les sean las prerrogativas de la misi\u00f3n, etc., el sistema recomendar\u00e1 un curso de acci\u00f3n u otro.<\/p>\n<div id=\"attachment_17275\" style=\"width: 366px\" class=\"wp-caption aligncenter\"><a href=\"\/wp-content\/uploads\/2021\/01\/34549_03-1.svg\"><img aria-describedby=\"caption-attachment-17275\" loading=\"lazy\" class=\"my-image wp-image-17275 size-full\" src=\"\/wp-content\/uploads\/2021\/01\/34549_03-1.svg\" alt=\"\" width=\"356\" height=\"574\" \/><\/a><p id=\"caption-attachment-17275\" class=\"wp-caption-text\">Agencia basada en metas<\/p><\/div>\n<h3>Agencia basada en utilidades<\/h3>\n<p>Se trata b\u00e1sicamente de mejorar el an\u00e1lisis de metas del agente incluyendo tambi\u00e9n unas <strong>utilidades<\/strong> (en el sentido de la econom\u00eda) para <strong>medir el grado de efectividad<\/strong>. El sistema tiene as\u00ed un <em>feedback<\/em> num\u00e9rico del tipo: \u00abEl objetivo se ha cumplido en un 75 %\u00bb. Este n\u00famero puede ser \u00fatil para el usuario del agente, para saber lo cerca que est\u00e1 de sus objetivos. Pero tambi\u00e9n lo puede utilizar internamente el <em>software<\/em> para decidir si lo est\u00e1 haciendo bien, o si debe de revisar sus metas y objetivos en funci\u00f3n de c\u00f3mo evolucionan los datos num\u00e9ricos.<\/p>\n<p>Imaginemos un <em>bot<\/em> que invierte en bolsa por nosotros. Podemos incluir un criterio de utilidad que mida los beneficios y los costes de una operaci\u00f3n, y que decida detener una inversi\u00f3n y avisarnos si el nivel de p\u00e9rdidas pasa del 2 %, por ejemplo.<\/p>\n<div id=\"attachment_17277\" style=\"width: 512px\" class=\"wp-caption aligncenter\"><a href=\"\/wp-content\/uploads\/2021\/01\/34549_04-1.svg\"><img aria-describedby=\"caption-attachment-17277\" loading=\"lazy\" class=\"my-image wp-image-17277 size-full\" src=\"\/wp-content\/uploads\/2021\/01\/34549_04-1.svg\" alt=\"\" width=\"502\" height=\"601\" \/><\/a><p id=\"caption-attachment-17277\" class=\"wp-caption-text\">Agencia basada en utllidades<\/p><\/div>\n<h3>Agencia basada en el aprendizaje<\/h3>\n<p>Hablamos aqu\u00ed de verdadera inteligencia artificial. <strong>Sistemas que toman decisiones y aprenden de ellas<\/strong>, para mejorar su criterio. Entramos as\u00ed en entornos de aprendizaje autom\u00e1tico, donde un <em>chatbot<\/em> aprender\u00eda de manera aut\u00f3noma analizando estad\u00edsticamente conversaciones reales entre personas y que, una vez en marcha, ir\u00eda tambi\u00e9n aprendiendo de las interacciones con los usuarios y mejorando su algoritmo de forma progresiva.<\/p>\n<div id=\"attachment_17279\" style=\"width: 402px\" class=\"wp-caption aligncenter\"><a href=\"\/wp-content\/uploads\/2021\/01\/34549_05-2.svg\"><img aria-describedby=\"caption-attachment-17279\" loading=\"lazy\" class=\"my-image wp-image-17279 size-full\" src=\"\/wp-content\/uploads\/2021\/01\/34549_05-2.svg\" alt=\"\" width=\"392\" height=\"601\" \/><\/a><p id=\"caption-attachment-17279\" class=\"wp-caption-text\">Agencia basada en aprendizaje<\/p><\/div>\n<h2>C\u00f3mo afecta al dise\u00f1o<\/h2>\n<p><strong>Cualquier proyecto de dise\u00f1o de interacci\u00f3n debe estar pensado desde la idea de agencia<\/strong>. Cuando dise\u00f1emos un proyecto interactivo, tenemos que pensar en la agencia desde las dos perspectivas apuntadas en formas de aplicaci\u00f3n. Es decir, considerar por un lado una teor\u00eda de la agencia y por otro el tipo de agente inteligente que va a estar detr\u00e1s de nuestro sistema. O, dicho de otro modo, tenemos que pensar en el tipo de agencias que interactuar\u00e1n con nuestro sistema, as\u00ed como en la agencia interna de nuestro propio sistema (tipo de interacci\u00f3n).<\/p>\n<p>Usando una <strong>teor\u00eda de la agencia<\/strong> podemos establecer la cadena de conexiones que se van a establecer entre diferentes agentes, detectar posibles cuellos de botella y posibles problemas, y realizar el dise\u00f1o de modo que esos problemas y cuellos de botella se minimicen. Esto es especialmente importante si dise\u00f1amos alg\u00fan tipo de <em>software<\/em> corporativo, pues necesitamos conocer el grado de agencia que tendr\u00e1 el usuario: no tiene sentido desarrollar un <em>software<\/em> pensado para un cargo concreto en una empresa, si las decisiones que debe tomar no corresponden a esa persona y tiene que delegarlas en un tercero.<\/p>\n<p>Del mismo modo, aunque no seamos <em>cracks<\/em> de la inteligencia artificial, tenemos que pensar en el <strong>tipo de interacci\u00f3n<\/strong> que vamos a crear, tener un modelo del tipo de cosas que esperamos que el sistema pueda decidir, de qu\u00e9 manera nuestro sistema va a actuar, es decir, cu\u00e1l es su agencia.<\/p>\n<p>Hacer esta pregunta b\u00e1sica es lo que permitir\u00e1 entender la mayor\u00eda de las cuestiones que surjan en el proceso de dise\u00f1o. Por ejemplo, imaginemos que nuestro sistema va a tener acceso a datos personales del usuario para generar la respuesta esperada. Preguntarnos por el tipo de agencia disponible con esos datos nos permitir\u00e1 desarrollar un sistema con salvaguardas que evite que haya un abuso de nuestra capacidad de acceso que erosione la privacidad del usuario.<\/p>\n<p>Igualmente, cuando nos preguntemos por el tipo de persuasi\u00f3n que vamos a generar en el usuario, necesitaremos establecer el tipo de agencia que daremos al sistema, analizando el tipo de respuestas que el sistema generar\u00e1, c\u00f3mo las argumentar\u00e1 y el grado de libertad que dejar\u00e1 el sistema en el usuario.<\/p>\n<p>Por ejemplo, imaginemos un sistema de recomendaci\u00f3n autom\u00e1tico para decidir el mejor candidato a un puesto en una empresa. El sistema analiza de forma sistem\u00e1tica los CV de los diferentes interesados e interesadas y hace una recomendaci\u00f3n a partir de esos datos. No es lo mismo un sistema que simplemente d\u00e9 una puntuaci\u00f3n y diga que Lev Manovich es el mejor candidato con una puntuaci\u00f3n de 89 sobre 100, que un sistema que informe de los cuatro elementos m\u00e1s significativos del CV de siete candidatos que sean los m\u00e1s viables. En el primer caso, toda la agencia estar\u00e1 en manos del sistema y el usuario lo \u00fanico que podr\u00e1 hacer ser\u00e1 aceptar o no la recomendaci\u00f3n del sistema. En cambio, en el segundo sistema, la agencia estar\u00e1 compartida: el sistema simplemente ofrecer\u00e1 una serie de criterios, que luego el usuario tomar\u00e1 en cuenta, m\u00e1s otros criterios que considere para llevar a cabo la decisi\u00f3n final.<\/p>\n<h2>C\u00f3mo afecta a la interacci\u00f3n con el usuario<\/h2>\n<p>Pensar en diferentes tipos de agencia cuando desarrollamos un dise\u00f1o de interacci\u00f3n transforma radicalmente la manera en la que el usuario recibir\u00e1 e interactuar\u00e1 con nuestro proyecto. En lugar de pensar en un simple usuario-tipo y reutilizar los t\u00edpicos recursos enlatados que vemos usados <em>ad nauseam<\/em> en todo tipo de sistemas interactivos, vale la pena pensar en <strong>la agencia real de diferentes tipos de usuarios en funci\u00f3n de su contexto, habilidades y formaci\u00f3n<\/strong>.<\/p>\n<p>Pensemos por un momento en la discapacidad. Cuando decidimos que los enlaces de nuestra web no ir\u00e1n subrayados, sino simplemente coloreados en verde, estamos suponiendo impl\u00edcitamente que todos los usuarios a los que nos dirigimos tienen agencia sobre el color, es decir, que pueden percibirlo y actuar a partir de esa informaci\u00f3n. Sin embargo, no es as\u00ed: hay personas con ceguera de color que no sabr\u00e1n reconocer el color verde y no podr\u00e1n, por tanto, ejercer agencia sobre los enlaces de nuestra web.<\/p>\n<p>Igualmente, un dispositivo pensado para una mano est\u00e1ndar va a dejar fuera muchas ni\u00f1as y ni\u00f1os, as\u00ed como un conjunto significativo de personas que, por razones varias, tienen las manos sensiblemente m\u00e1s grandes o m\u00e1s peque\u00f1as que la mano tipo.<\/p>\n<p>Del mismo modo, debemos reflexionar sobre el nivel socioecon\u00f3mico de los usuarios que van a utilizar nuestro producto interactivo. Sobre el papel, pensando en un usuario medio, nos puede parecer fant\u00e1stico crear una aplicaci\u00f3n educativa que se apoye en un sistema de videoconferencia para que los estudiantes puedan consultar a la profesora o hablar entre s\u00ed. Sin embargo, un sistema as\u00ed puede ser problem\u00e1tico para personas de renta baja, que no se pueden pagar una conexi\u00f3n a Internet de gran capacidad y velocidad, o bien que se encuentren en zonas remotas donde el acceso a datos es todav\u00eda muy lento y b\u00e1sico, por falta de buena cobertura.<\/p>\n<p><strong>Cambios sutiles en el dise\u00f1o de un sistema pueden generar cambios importantes en la agencia del usuario<\/strong>, y as\u00ed transformar completamente los usos e implicaciones de un producto interactivo.<\/p>\n<p>Pensemos por un momento en Twitter. Hace unos a\u00f1os, Twitter permit\u00eda hacer reenv\u00edos de mensajes de terceros (lo que coloquialmente llamamos <em>retuits<\/em>), pero no se pod\u00edan hacer comentarios. Uno simplemente reenviaba el mensaje tal cual. La agencia de hacer un retuit implicaba de forma impl\u00edcita que uno estaba de acuerdo con lo que enviaba, que le parec\u00eda algo interesante.<\/p>\n<p>Un tiempo despu\u00e9s, Twitter decidi\u00f3 cambiar el sistema de retuits incluyendo la capacidad de reenviar con comentario y Twitter se transform\u00f3 radicalmente. Esta red social digital se convirti\u00f3 de repente en un lugar mucho m\u00e1s inh\u00f3spito, lleno de <em>trolls<\/em> y de batallas entre usuarios. La posibilidad de retuitear con comentario permit\u00eda hacer escarnio p\u00fablico de aquellos tuits que nos parec\u00edan incorrectos. Surge as\u00ed un nuevo tipo de usuario: el <em>troll<\/em> que sigue a todas aquellas personas que odia, esperando a que digan algo incorrecto o que est\u00e9 abierto a burla, y retuitearlo con todo tipo de comentarios hirientes y sarc\u00e1sticos.<\/p>\n<p>Y de esa pr\u00e1ctica b\u00e1sica ha surgido otra a\u00fan m\u00e1s insidiosa, la b\u00fasqueda del retuit a trav\u00e9s de la indignaci\u00f3n. Esta t\u00e9cnica de ingenier\u00eda social consiste en hacer un tuit totalmente agresivo, loco e insultante para alguna comunidad, esperando que sus miembros lo reenv\u00eden, indignados. Lo que ponga de comentario el usuario indignado en el retuit es indiferente, pues lo que busca el autor del tuit agresivo original es la m\u00e1xima difusi\u00f3n.<\/p>\n<p>Diversos tipos de usuarios se apuntan a este tipo de actividad. Pueden ser simplemente usuarios obsesivos y pagados de s\u00ed mismos, que buscan poder presumir de que tienen 12.000 retuits, pero tambi\u00e9n pueden ser organismos con una estrategia bien planificada: los partidos de extrema derecha en Europa usan sistem\u00e1ticamente esta estrategia, generando tuits insultantes sobre mujeres, grupos \u00e9tnicos, progresistas, etc., esperando que reenv\u00eden el tuit de forma indignada consiguiendo llegar as\u00ed a un p\u00fablico al que normalmente no tienen acceso.<\/p>\n<p>Es interesante observar c\u00f3mo toda esta transformaci\u00f3n, que ha tenido en 2020 totalmente locos a los gestores de Twitter y ha hecho que reciban cr\u00edticas por todos lados, ha sido el resultado de ofrecer a los usuarios un modo espec\u00edfico de establecer agencia. Los peque\u00f1os cambios pueden ser muy poderosos.<\/p>\n<p><strong>Pensar en agencia es pensar en experiencia de usuario<\/strong>. La experiencia de usuario requiere, como condici\u00f3n necesaria de su implementaci\u00f3n, que pensemos todo el tiempo en la agencia del usuario que realmente va a usar nuestro sistema, as\u00ed como la agencia que estamos dando a nuestro sistema.<\/p>\n<h2>Referencias<\/h2>\n<p><strong>Aguilar, J.; Bessembel, I.; Cerrada, M.; Hidrobo, F.; Narciso, F.<\/strong> (2008). \u00abUna metodolog\u00eda para el Modelado de Sistemas de Ingenier\u00eda Orientado a Agentes.\u00a0Inteligencia Artificial\u00bb. <em>Revista Iberoamericana de Inteligencia Artificial<\/em>,\u00a0vol. 12, n.\u00ba 38, p\u00e1gs. 39-60.<\/p>\n<p><strong>Berbena, M. A. Z.; Figueiras, S. C.<\/strong> (2014). Fenomenolog\u00eda de agencia y educaci\u00f3n. \u00abNotas para el an\u00e1lisis del concepto de agencia humana y sus proyecciones en el \u00e1mbito educativo\u00bb.\u00a0<em>Magister<\/em>,\u00a0vol. 26, n.\u00ba 2, p\u00e1gs. 98-104.<\/p>\n<p><strong>Domingos, P.<\/strong> (2015).\u00a0<em>The master algorithm: How the quest for the ultimate learning machine will remake our world<\/em>. Nueva York, NY: Basic Books.<\/p>\n<p><strong>Hutchins, E.<\/strong> (1995).\u00a0<em>Cognition in the Wild<\/em>. Cambridge, MA: MIT Press.<\/p>\n<p><strong>Peris-Ortiz, M.; Rueda Armengot, C.; Souza Rech, G. C. D.; P\u00e9rez Montiel, M.<\/strong> (2012). \u00abFundamentos de la teor\u00eda organizativa de agencia.\u00a0Informaci\u00f3n Comercial Espa\u00f1ola (ICE)\u00bb. <em>Revista de Econom\u00eda<\/em>, n.\u00ba 865, p\u00e1gs. 107-118.<\/p>\n<p><strong>Sang\u00fcesa, R.; Guersenzvaig, A. <\/strong>(2019). \u00abLa intel\u00b7lig\u00e8ncia artificial com a material de disseny: treballar amb noves ag\u00e8ncies\u00bb.\u00a0<em>Temes de Disseny<\/em>, n.\u00ba 35, p\u00e1gs. 6-25.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfQu\u00e9 es? Agencia es un t\u00e9rmino filos\u00f3fico para hacer referencia a la manifestaci\u00f3n de la capacidad de una entidad (alguien o algo) para tomar una decisi\u00f3n y actuar. Una piedra es inerte y por tanto no tiene capacidad de actuar, de manera que no tiene agencia. Puedo tomar esa piedra y lanzarla a la casa [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":18277,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[25],"tags":[],"_links":{"self":[{"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/posts\/17083\/"}],"collection":[{"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/posts\/"}],"about":[{"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/types\/post\/"}],"author":[{"embeddable":true,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/users\/4\/"}],"replies":[{"embeddable":true,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/comments\/?post=17083"}],"version-history":[{"count":11,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/posts\/17083\/revisions\/"}],"predecessor-version":[{"id":17422,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/posts\/17083\/revisions\/17422\/"}],"wp:featuredmedia":[{"embeddable":true,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/media\/18277\/"}],"wp:attachment":[{"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/media\/?parent=17083"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/categories\/?post=17083"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/design-toolkit-test.uoc.edu\/es\/wp-json\/wp\/v2\/tags\/?post=17083"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}