<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[Ara en Castellano - algoritmos]]></title>
    <link><![CDATA[https://es.ara.cat/etiquetes/algoritmos/]]></link>
    <description><![CDATA[Ara en Castellano - algoritmos]]></description>
    <language><![CDATA[es]]></language>
    <ttl>10</ttl>
    <atom:link href="http://es.ara.cat:443/rss-internal" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA["La misoginia digital es un modelo de negocio"]]></title>
      <link><![CDATA[https://es.ara.cat/feminismos/misogina-online-modelo-negocio_128_5671833.html]]></link>
      <description><![CDATA[<p><img src="https://static1.ara.cat/clip/5d445bf9-a369-4d61-924f-6e075b5ce07f_16-9-aspect-ratio_default_0.jpg" /></p><p>Hace años que la socióloga Elisa García-Mingo se sumerge en el estudio de la machosfera, comunidades online que difunden contenido misógino, sea en comentarios y mensajes ridiculizantes o pidiendo a la inteligencia artificial que reinvente fotografías de mujeres para desnudarlas.</p>]]></description>
      <dc:creator><![CDATA[Marta Rodríguez Carrera]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://es.ara.cat/feminismos/misogina-online-modelo-negocio_128_5671833.html]]></guid>
      <pubDate><![CDATA[Sun, 08 Mar 2026 09:00:34 +0000]]></pubDate>
      <media:content url="https://static1.ara.cat/clip/5d445bf9-a369-4d61-924f-6e075b5ce07f_16-9-aspect-ratio_default_0.jpg" type="image/jpeg"/>
      <media:title><![CDATA[La socióloga Elisa García Mingo.]]></media:title>
      <media:thumbnail url="https://static1.ara.cat/clip/5d445bf9-a369-4d61-924f-6e075b5ce07f_16-9-aspect-ratio_default_0.jpg"/>
      <subtitle><![CDATA[Socióloga e investigadora de la machosfera]]></subtitle>
    </item>
    <item>
      <title><![CDATA[Detener el machismo digital]]></title>
      <link><![CDATA[https://es.ara.cat/editorial/detener-machismo-digital_129_5671545.html]]></link>
      <description><![CDATA[<p><img src="https://static1.ara.cat/clip/5b5fa5b8-a4e2-4f6d-8868-2b5b45b94742_16-9-aspect-ratio_default_0.jpg" /></p><p>Conmemoramos el 8-M otro año, casi con las mismas reivindicaciones o aún peor, reivindicando que no queremos dar pasos atrás. El feminismo parece Sísifo intentando subir una y otra vez una piedra que no para de rodar cuesta abajo. Hoy en día una de las razones que hace más difícil el progreso de derechos y la consolidación de los que se han podido alcanzar es el mundo digital. Porque ya no es sólo que tenga un sesgo machista, sino que por su propia naturaleza le amplifica y lo multiplica. Como explicamos hoy en el dossier, los ejemplos son múltiples y las razones evidentes. Una es que el universo digital está dominado por hombres blancos heterosexuales, tanto los propietarios de las principales empresas del sector como los que programan y trabajan en estas compañías. Estos hombres entrenan los algoritmos con el sesgo que llevan incorporado de género, a partir de sus intereses y preocupaciones, y ni siquiera encuentran extraño que haya ese sesgo ni lo saben detectar. </p>]]></description>
      <dc:creator><![CDATA[Editorial]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://es.ara.cat/editorial/detener-machismo-digital_129_5671545.html]]></guid>
      <pubDate><![CDATA[Sat, 07 Mar 2026 18:56:25 +0000]]></pubDate>
      <media:content url="https://static1.ara.cat/clip/5b5fa5b8-a4e2-4f6d-8868-2b5b45b94742_16-9-aspect-ratio_default_0.jpg" type="image/jpeg"/>
      <media:title><![CDATA[Una mujer utilizando un ordenador en una imagen de archivo.]]></media:title>
      <media:thumbnail url="https://static1.ara.cat/clip/5b5fa5b8-a4e2-4f6d-8868-2b5b45b94742_16-9-aspect-ratio_default_0.jpg"/>
      <subtitle><![CDATA[]]></subtitle>
    </item>
    <item>
      <title><![CDATA[Los algoritmos también son machistas: así amplifican la discriminación de las mujeres]]></title>
      <link><![CDATA[https://es.ara.cat/sociedad/algoritmos-son-machistas-amplifican-discriminacion-mujeres_130_5670705.html]]></link>
      <description><![CDATA[<p><img src="https://static1.ara.cat/clip/e8fbfb64-c303-487d-9f82-b223ef46b9c7_16-9-aspect-ratio_default_0.jpg" /></p><p>¿Sabes que los algoritmos deciden qué publicidad vemos en las redes? Parece algo sin importancia, pero no es así. "Si eres un joven en edad de decidir un grado universitario, lo más probable es que si eres un chico las redes te muestren grados de ingeniería e informática, y si eres chica de educación, enfermería y cuidados", dice Liliana Arroyo Moliner, doctora en sociología y directora de Chair for Socially Responsible Digital Innovation. Milagros Sainz, investigadora y profesora de la UOC, explica que la popular aplicación Google Maps "utiliza como medida para calcular las distancias a pie los pasos de un hombre y esto hace que en muchas ocasiones las mujeres o las personas con problemas de movilidad tarden más". También hay discriminación a la hora de buscar trabajo, en temas de salud y con los algoritmos que se utilizan en entidades bancarias para decidir si se concede o no un préstamo porque los modelos matemáticos de los algoritmos se aplican en campos muy diferentes y hay muchas decisiones que se toman teniendo en cuenta.</p>]]></description>
      <dc:creator><![CDATA[Thaïs Gutiérrez]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://es.ara.cat/sociedad/algoritmos-son-machistas-amplifican-discriminacion-mujeres_130_5670705.html]]></guid>
      <pubDate><![CDATA[Fri, 06 Mar 2026 19:00:22 +0000]]></pubDate>
      <media:content url="https://static1.ara.cat/clip/e8fbfb64-c303-487d-9f82-b223ef46b9c7_16-9-aspect-ratio_default_0.jpg" type="image/jpeg"/>
      <media:title><![CDATA[Los algoritmos son un reflejo de la sociedad]]></media:title>
      <media:thumbnail url="https://static1.ara.cat/clip/e8fbfb64-c303-487d-9f82-b223ef46b9c7_16-9-aspect-ratio_default_0.jpg"/>
      <subtitle><![CDATA[Los sistemas que se encuentran en la base de los navegadores, de las redes sociales y de todas las aplicaciones reproducen y amplifican los sesgos de género de la sociedad ofreciendo una mirada al mundo muy desigual]]></subtitle>
    </item>
    <item>
      <title><![CDATA["Hay nostalgia de un amor puro"]]></title>
      <link><![CDATA[https://es.ara.cat/estilo/relaciones/hay-nostalgia-amor-puro_128_5541852.html]]></link>
      <description><![CDATA[<p><img src="https://static1.ara.cat/clip/18c4c9d8-c6a6-4b4e-be9c-0e36456803bb_16-9-aspect-ratio_default_0.jpg" /></p><p>Es la primera persona de su familia que estudió en la universidad. Licenciada en filología inglesa, se interesó en estudios de vigilancia en la literatura moderna y una beca Fullbright la llevó en 2014 a Estados Unidos. Hoy es profesora en el Barnard College de la Universidad de Columbia, un centro sobre estudios de género. Su tesis lleva por título: <em>Amor algorítmico, reorganización del amor romántico</em>.</p>]]></description>
      <dc:creator><![CDATA[Carla Turró]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://es.ara.cat/estilo/relaciones/hay-nostalgia-amor-puro_128_5541852.html]]></guid>
      <pubDate><![CDATA[Mon, 27 Oct 2025 06:00:49 +0000]]></pubDate>
      <media:content url="https://static1.ara.cat/clip/18c4c9d8-c6a6-4b4e-be9c-0e36456803bb_16-9-aspect-ratio_default_0.jpg" type="image/jpeg"/>
      <media:title><![CDATA[Sandra Moyano, profesora del Barnard College de Columbia.]]></media:title>
      <media:thumbnail url="https://static1.ara.cat/clip/18c4c9d8-c6a6-4b4e-be9c-0e36456803bb_16-9-aspect-ratio_default_0.jpg"/>
      <subtitle><![CDATA[Profesora en el Barnard College de la Universidad de Columbia]]></subtitle>
    </item>
    <item>
      <title><![CDATA[Suélteme el brazo, señor algoritmo]]></title>
      <link><![CDATA[https://es.ara.cat/media/redes-sociales/suelteme-brazo-senor-algoritmo_129_5052250.html]]></link>
      <description><![CDATA[<p><img src="https://static1.ara.cat/clip/0852e1d5-cad5-4c24-ad69-03fbf5446b6a_16-9-aspect-ratio_default_0.jpg" /></p><p>El estado de Nueva York ha planteado una propuesta de ley para que los menores no reciban contenido proporcionado por el algoritmo. Es decir, que los menores solo puedan ver <em>post</em>, fotos y vídeos de aquellas personas a las que siguen y no de lo que decida la red social de turno. ¿Por qué? Es muy sencillo, para que sea aburrido. El algoritmo escoge material que sabe que va a ser interesante para el usuario y se lo pone en la cara, para que no abandone la aplicación. Esta medida me parece fantástica, pero me parece que se queda corta. Me pregunto… ¿No podría ampliarse también a los adultos?</p>]]></description>
      <dc:creator><![CDATA[Jorge Corrales]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://es.ara.cat/media/redes-sociales/suelteme-brazo-senor-algoritmo_129_5052250.html]]></guid>
      <pubDate><![CDATA[Sun, 09 Jun 2024 16:00:40 +0000]]></pubDate>
      <media:content url="https://static1.ara.cat/clip/0852e1d5-cad5-4c24-ad69-03fbf5446b6a_16-9-aspect-ratio_default_0.jpg" type="image/jpeg"/>
      <media:title><![CDATA[¿Condenados por un algoritmo?]]></media:title>
      <media:thumbnail url="https://static1.ara.cat/clip/0852e1d5-cad5-4c24-ad69-03fbf5446b6a_16-9-aspect-ratio_default_0.jpg"/>
      <subtitle><![CDATA[]]></subtitle>
    </item>
  </channel>
</rss>
