Data Loading...

Libro_Inteligencia Artificial y Bienestar de las Juventudes Flipbook PDF

Libro_Inteligencia Artificial y Bienestar de las Juventudes


154 Views
58 Downloads
FLIP PDF 1.88MB

DOWNLOAD FLIP

REPORT DMCA

Inteligencia artificial y bienestar de las juventudes en América Latina Lionel Brossi Tomás Dodds Ezequiel Passeron (editores generales)

Lom palabra de la lengua yámana que significa Sol

Brossi Garavaglia, Lionel Ricardo Inteligencia artificial y bienestar de las juventudes en América Latina [texto impreso] / Lionel Ricardo Brossi Garavaglia; Tomás Dodds Rojas; Ezequiel Passeron; [et al.]. –1ª ed.– Santiago: LOM ediciones, 2019. 278 p.: 21,5 x 14 cm. (Colección Ciencias Sociales y Humanas). isbn: 978-956-00-1237-1 1. Inteligencia Artificial 2. Jóvenes – Desarrollo Social y Tecnológico I. Título. II. Serie. dewey: 006.3.–cdd 21 cutter : M435i fuente: Agencia Catalográfica Chilena

La edición cuenta con el apoyo de: la Red Conectados al Sur, el Instituto de la Comunicación e Imagen (ICEI) de la Universidad de Chile, Faro Digital Argentina, la Cátedra Latinoamericana de Narrativas Transmedia e ITS Rio. © LOM ediciones Primera edición, diciembre 2019 Impreso en 1000 ejemplares isbn: 978-956-00-1237-1 Todas las publicaciones del área de Ciencias Sociales y Humanas de LOM ediciones han sido sometidas a referato externo. edición, diseño y diagramación LOM ediciones. Concha y Toro 23, Santiago teléfono: (56-2) 2860 6800 [email protected] | www.lom.cl diseño de colección: Estudio Navaja registro n°: 211.019 Tipografía: Karmina impreso en los talleres de lom Miguel de Atero 2888, Quinta Normal Impreso en Santiago de Chile

Inteligencia artificial y bienestar de las juventudes en América Latina Editores generales, editores de sección y autores: Lionel Brossi - Tomás Dodds - Ezequiel Passeron Loreto Sánchez - Micaela Mantegna - Andrés Lombana Eduardo Magrani - Fernando Irigaray - Anahí Lovato Matías Mattamala Renato Pincelli Marcos ‘Tuca’ Américo Francisco Rolfsen Paola Ricaurte Juliana Rocha Armando Guío Denise Dajles Mónica Bonilla Álvaro Crovo Carolina Castro Marco Jaramillo Cristóbal Alcázar Jackeline Bucio Omar Terrazas Guadalupe Vadillo Francisco Cervantes Luísa Adib Fabio Senne

Laura Hernández José Roberto Amaya Caio César de Oliveira Ana Carolina da Hora Daniel Calarco Rodrigo Roll Chiara Spadaccini de Teffé Fabro Steibel Marcelo Crespo Gisele Kauer Cláudio Lucena Martín Silva Cleomar Rocha Maximiliano Bron Sara Gallego Mauricio Vásquez Sebastián Castro Jorge Vázquez-Herrero

Sociología | ciencias sociales y humanas

Índice

Prólogo | 13 Introducción | 15 Inteligencia artificial: ¿qué es y qué no es? | 19 Presentación de la temática Loreto Sánchez | 21 ¿Qué es la inteligencia artificial? Matías Mattamala | 25 Inteligencia artificial subconsciente: ¿un fenómeno en emergencia? Renato Pincelli, Marcos «Tuca» Américo y Francisco Rolfsen | 37

Jóvenes e imaginarios sobre inteligencia artificial en México Paola Ricaurte | 51 Inteligencia artificial y dinámicas de inclusión/exclusión de las juventudes | 61 Presentación de la temática Lionel Brossi y Tomás Dodds | 63 El interés superior de los niños, niñas y adolescentes en el diseño de la inteligencia artificial Juliana Rocha y Armando Guío | 71 Sistemas inteligentes que ofrecen soluciones para el mejoramiento de la calidad de vida de personas jóvenes Denise Dajles | 83 Congestión en la autopista de la información Mónica Bonilla y Álvaro Crovo | 95 Instagram como interfaz tecnológica: algoritmos e interacción de las juventudes Carolina Castro Grau | 105 Pensar la inteligencia artificial y las narraciones en los videojuegos para afrontar la exclusión social de los jóvenes en América Latina Marco Jaramillo | 113 – 7 –

Jóvenes, inteligencia artificial y educación | 121 Presentación de la temática: oportunidades y desafíos de la inteligencia artificial en los sistemas educativos formales e informales Andrés Lombana-Bermúdez y Ezequiel Passeron | 123 Alfabetización digital, pensamiento computacional y programación literaria Cristóbal Alcázar | 127 Inteligencia artificial para mejorar el aprendizaje y la retención en B@UNAM: necesidades, preguntas y desafíos Jackeline Bucio, Omar Terrazas, Guadalupe Vadillo y Francisco Cervantes| 137 Plataformas digitales y aprendizaje: indicadores sobre el acceso, actividades y habilidades digitales de niños y adolescentes en Brasil Luísa Adib y Fabio Senne | 149 Lectura online para la promoción de capacidades y habilidades digitales en el ambiente virtual y automatizado Laura Hernández y José Amaya | 165 Bienestar, seguridad y privacidad | 177 Presentación de la temática Eduardo Magrani | 179 Inteligencia artificial al servicio de la convivencia humana: la importancia de normas de privacidad, seguridad y ética desde la concepción de productos y servicios Caio César de Oliveira | 183 ¿Cómo la inteligencia artificial puede comprometer una generación de democracia en Brasil? Ana Carolina Da Hora, Daniel Calarco y Rodrigo Roll | 189 Juguetes conectados y tutela de la privacidad de niños y adolescentes: explorando beneficios y desafíos Chiara Spadaccini De Teffé, Eduardo Magrani y Fabro Steibel | 197 Filter bubble y juicio crítico de jóvenes: consideraciones acerca de algoritmos y bienestar Marcelo Crespo y Gisele Kauer | 203 El modelo de gobernanza de múltiples partes interesadas para aplicaciones críticas de sistemas autónomos Cláudio Lucena y Martín Silva | 209

– 8 –

Narrativas transmedia | 219 Presentación de la temática: ¿narrativas algorítmicas? Retos y oportunidades para (humanos y) proyectos transmedia en tiempos de machine learning e inteligencia artificial Anahí Lovato y Fernando Irigaray | 221 La cultura digital y las formas del pensamiento Cleomar Rocha | 233 Netflixficando la vida. Máquinas y humanos centrados en el usuario Maximiliano Bron | 243 Diseño de un asistente de voz para la apropiación de archivos culturales en un contexto transmedia. El caso de la colección León de Greiff en la sala patrimonial del Centro Cultural-Biblioteca Luis Echavarría Villegas Sara Gallego y Mauricio Vásquez | 251 Narrar y contar con imágenes en y con la red Sebastián Castro | 263

La mediación del algoritmo en las narrativas interactivas Jorge Vásquez-Herrero | 269

– 9 –

Este libro es una iniciativa de la red Conectados al Sur - Digitally Connected y fue publicado gracias a la colaboración del Instituto de la Comunicación e Imagen de la Universidad de Chile, el Núcleo Milenio para Mejorar la Salud Mental de Adolescentes y Jóvenes (Imhay), Faro Digital, ITS Rio y la Cátedra Latinoamericana de Narrativas Transmedia. Agradecemos especialmente a Maia Ravalli, jefa de Participación Juvenil, División de Comunicación UNICEF, y a Sandra Cortesi, directora de la iniciativa Youth and Media, del Berkman Klein Center for Internet and Society de la Universidad de Harvard, así como a todas las personas y organizaciones multisectoriales que han enviado sus contribuciones, al equipo de editores y editoras de las diferentes secciones, y a todas y todos los que han aportado de alguna manera a la consecución de esta importante obra colectiva.

Prólogo

El estudio sobre la inteligencia artificial (IA) desde la mirada de las humanidades, con una perspectiva de derechos humanos, bienestar e inclusión social, es aún escaso en relación a la velocidad con que estas tecnologías avanzan y se insertan en nuestra sociedad. Claramente, el desarrollo y la implementación de tecnologías de IA representa una enorme promesa para gran parte del mundo, incluida América Latina, y sin dudas afectará, en términos de desafíos y oportunidades, a los niños, niñas, y las y los jóvenes de la región. En el entorno educativo, por ejemplo, la IA –como los sistemas inteligentes de tutoría, los planes de estudio personalizados y la realidad virtual– puede mejorar los resultados y ofrecer experiencias de aprendizaje más interactivas; en el entorno de salud y bienestar, la IA puede facilitar el diagnóstico, ofrecer tratamientos específicos, aumentar la conciencia social sobre problemas de salud complejos, evaluar el riesgo de suicidio basándose en el procesamiento del lenguaje natural y ofrecer una terapia de salud mental, entre otros aportes. Sin embargo, a pesar de las oportunidades que estas tecnologías puedan ofrecer, existe un riesgo real de que, sin una intervención cuidadosa, la IA pueda exacerbar los desequilibrios estructurales, económicos, sociales y políticos, y reforzar aún más las desigualdades basadas en diferentes variables demográficas (incluyendo etnicidad, raza, género, identidad sexual y de género, religión, nacionalidad, edad y nivel educativo o socioeconómico) y así impactar negativamente las vidas de muchos jóvenes. Considerar las necesidades de las y los jóvenes, así como sus derechos, es central para que el desarrollo e implementación de estas nuevas tecnologías sean más beneficiosos. Para ello es vital contar

– 13 –

con una perspectiva inclusiva, es decir, que abarque varias disciplinas y sectores, especialmente a los y las jóvenes en el diseño, desarrollo e implementación de la IA y sus consideraciones éticas, resguardando el bienestar de las y los jóvenes y de la sociedad en general, evitando al mismo tiempo perspectivas sesgadas y adultocéntricas. Este libro es la primera iniciativa colectiva que discute e indaga sobre la intersección entre el bienestar de la juventud y la IA con el foco en América Latina y con voces y miradas desde la propia región. Los estudios en la región adquieren suma relevancia, ya que estas tecnologías son creadas principalmente en países como Estados Unidos y China, lo que extiende las brechas no sólo en lo referente al acceso, sino en cómo estos sistemas están siendo diseñados, pensados y su consecuente impacto. Las contribuciones reflejan la diversidad de ideas y perspectivas que forman el núcleo y la mentalidad de Conectados al Sur (www.conectadosalsur.org). Algunos de los aportes están vinculados a temas discutidos en el simposio realizado en Costa Rica, otros reflejan de manera más general las observaciones personales u opiniones, o resaltan y discuten ideas y aprendizajes de estudios específicos o proyectos concretos. Los variados aportes colectivos que componen este libro conforman una fuente de consulta y de insumos para estudiantes, docentes, investigadores, generadores de políticas públicas y personas cuyo ámbito de trabajo o interés se enmarque dentro del desarrollo de la IA. Se espera que la diversidad de visiones, casos y reflexiones que se presentan a continuación sirvan para sentar las bases iniciales para explorar aún más este campo, y estimular el diálogo, la investigación, y la colaboración, en un área que tiene una enorme relevancia para el presente y futuro de las y los jóvenes en América Latina. Maia Ravalli Jefa de Participación Juvenil, División de Comunicación UNICEF, y co-coordinadora de Conectados al Sur Sandra Cortesi Directora de Youth and Media (www.youthandmedia.org), Berkman Klein Center for Internet & Society y co-coordinadora de Conectados al Sur

– 14 –

Introducción

La inteligencia artificial (IA) es un ámbito de desarrollo y aplicación tecnológica que en los últimos años ha presentado avances sin precedentes. Aunque en la mayoría de los casos de manera imperceptible, hoy en día los sistemas algorítmicos atraviesan casi todos los ámbitos de nuestra vida. Asimismo, la complejidad de los procesos por los cuales estos sistemas seleccionan, evalúan, infieren y toman decisiones, hace que sea aún más difícil poder comprenderlos y predecir su impacto en términos de oportunidades y desafíos para la sociedad. Numerosas iniciativas a nivel global dan cuenta de los esfuerzos por establecer formas de gobernanza de la IA para reducir sus potenciales impactos negativos y fortalecer los beneficios que puede brindar a la sociedad en campos como el futuro del trabajo, los sistemas de transporte autónomos, la salud, la educación, las finanzas, el comercio, entre otros. Los sistemas algorítmicos presentan innumerables oportunidades para la sociedad. Entre algunos ejemplos se pueden citar las posibilidades de generar procesos eficientes de trabajo, producir diagnósticos más precisos en el campo de la salud, diseñar sistemas energéticos más eficientes, tecnologías menos contaminantes, desarrollar planes educativos o de especialización adecuados para cada persona, identificar patrones de delitos en línea como el ciberacoso, detectar información de poca calidad o «desinformación» para prevenir a los usuarios de potenciales engaños, entre muchos otros. Tal como ocurre con cualquier tecnología, la IA viene también acompañada de enormes desafíos y potenciales riesgos para la sociedad, por lo que es imperioso contar con conocimiento relevante

– 15 –

que promueva el accionar para reducir o evitar los posibles efectos negativos. Las juventudes constituyen un sector de la sociedad que ha sido escasamente abordado investigativamente en relación al desarrollo, oportunidades y desafíos que presenta la IA en sus vidas, y son las y los jóvenes quienes se verán más afectadas por el impacto que estas tecnologías tendrán en el futuro. La automatización del trabajo cambiará las dinámicas de empleo y los puestos que menos especialización requieren tenderán a ser ejecutados por entidades autónomas. Esta necesidad de especialización en nuevas áreas traerá consigo un cambio mayor en el ámbito de la educación y la especialización profesional. La privacidad es también un lugar de sumo interés para el estudio de la intersección entre la IA y el bienestar mental y físico de las juventudes, ya que estas tecnologías tienen una mayor capacidad de recolectar y analizar enormes volúmenes de datos personales con diversos fines. Redes sociales, videojuegos, robots asistentes y diversas plataformas digitales recolectan datos de sus usuarios sin necesariamente explicar de manera clara y accesible el propósito y las posibles formas de utilización de los mismos. De allí la urgencia de pensar nuevas formas de regulación y de elaboración de protocolos éticos que salvaguarden el bienestar de las y los jóvenes. Este libro es un esfuerzo colectivo y multisectorial que incluye aportes de académicos, organismos de la sociedad civil, estudiantes y generadores de políticas públicas, para introducir por primera vez un marco de referencia que sirva como base para pensar las oportunidades y desafíos que presenta el diseño, desarrollo e implementación de la IA para el bienestar de las y los jóvenes en la región. Los capítulos que siguen se enmarcan dentro de cinco secciones temáticas generales: Inteligencia artificial: ¿Qué es y qué no es?; Inteligencia artificial y formas de inclusión/exclusión social; Perspectivas sobre inteligencia artificial y educación; Bienestar, seguridad y privacidad; y una sección especial dedicada a la intersección entre inteligencia artificial y narrativas transmedia. Esperamos que la diversidad de perspectivas, casos y reflexiones sienten las bases, el interés y el entusiasmo para seguir explorando e investigando este campo que tiene una enorme relevancia para el presente y futuro de las y los jóvenes de nuestra región. De la misma

– 16 –

forma, confiamos en que este libro sirva como insumo para jóvenes, docentes, investigadores y generadores de políticas públicas cuyo ámbito de trabajo o interés se enmarque dentro del desarrollo de la inteligencia artificial, con el objetivo de seguir avanzando para lograr una sociedad más equitativa, diversa e inclusiva. Lionel Brossi Tomás Dodds Ezequiel Passeron

– 17 –

Inteligencia artificial: ¿qué es y qué no es?

Presentación de la temática loreto sánchez quiñones, küdaw

La inteligencia artificial (IA) es la inteligencia demostrada por máquinas, en contraste a la inteligencia natural de humanos u otros animales. La IA, como actualmente la conocemos, incluye tareas como la planificación, la comprensión del lenguaje, el reconocimiento de objetos y sonidos, la resolución de problemas y el aprendizaje a través de la experiencia. Mientras la ciencia ficción a menudo retrata a la IA como robots con características humanoides o computadoras que nos hablan, la IA puede abarcar desde algoritmos de búsqueda en Google, asistentes virtuales tales como Siri, Alexa y Cortana, vehículos autónomos de Tesla, hasta los muy avanzados robots de Boston Dynamics. Ha sido sólo en esta última década que hemos sido testigos del rápido progreso de la inteligencia artificial en todos estos campos. Existen dos categorías en las cuales se enmarca la IA: la general y la estrecha. La primera tiene todas las características de la inteligencia humana, en tanto esta última exhibe sólo algunas de ellas. Con la IA estrecha, una máquina puede realizar una sola tarea extremadamente bien, pero no así otras labores. Una máquina que sea excelente para reconocer imágenes, pero nada más, sería un buen ejemplo de IA estrecha. La inteligencia artificial se ha desarrollado de forma estrecha, ya que está diseñada para realizar tareas limitadas, por ejemplo sólo reconocimiento facial o de texto, sólo búsquedas en Internet, o sólo conducción autónoma de automóviles. Sin embargo, el objetivo a largo plazo de muchos investigadores en este tema es crear una IA general que sea capaz de realizar todo tipo de tareas simultáneamente. Si bien actualmente la IA puede superar a los humanos en algunas tareas

– 21 –

específicas, tales como resolver ecuaciones o jugar al go, se espera que la IA en la que ya se ha comenzado a trabajar pueda superar a los humanos en casi todas las tareas cognitivas. Los límites de la IA son inciertos. A medida que las nuevas tecnologías se hacen más asequibles para todos, a través de softwares de código abierto, los investigadores en el área concentrarán sus esfuerzos en nuevos algoritmos, más potentes y que conduzcan al aprendizaje acumulativo. Esto provocará un cambio en la fuerza laboral y permitirá la concentración en otras tareas como el pensamiento creativo, la estrategia y la resolución de problemas. Las máquinas inteligentes, se estima, serán capaces de escribir sus propios programas, tal vez no tan sofisticados al principio pero mejorando a medida que se incorpore el aprendizaje automático como parte de sus capacidades. Ray Kurzweil, Director de Ingeniería de Google, considera que dentro de 10 años más la IA alcanzará niveles humanos de inteligencia y lo que él llama «singularidad» se producirá en 2045. Esto «dará lugar al amanecer de una nueva civilización que nos permitirá trascender nuestras limitaciones biológicas y amplificar nuestra creatividad. En este nuevo mundo no habrá una distinción clara entre humano y máquina, realidad real y realidad virtual» (2005). Debido a que la IA tiene el potencial de volverse más inteligente que los humanos en diversos ámbitos, no existe una manera segura de predecir cómo se comportará. No se pueden usar desarrollos tecnológicos del pasado como una base, pues nunca se ha creado algo que tenga la capacidad, consciente o inconsciente, de superar a los humanos en actividades cognitivas. Una creencia popular señala que cuando las máquinas se vuelvan más inteligentes que los seres humanos, tenderán a apoderarse del mundo. Es por esto que muchos grandes nombres de la ciencia y la tecnología, como Stephen Hawking, Elon Musk e incluso Bill Gates, han expresado de forma reciente su preocupación por los riesgos del desarrollo de la IA, advirtiendo sobre este tipo de futuro. Por otro lado, para Kurzweil, la «singularidad» es una oportunidad para que la humanidad mejore. Él visualiza que la misma tecnología que hará a las inteligencias artificiales más inteligentes, también les dará un impulso a los humanos y los hará más inteligentes.

– 22 –

Esta sección busca explicar cómo ha evolucionado la inteligencia artificial desde sus inicios hasta la actualidad, así como responder a las siguientes preguntas: 1.

¿Qué es la inteligencia artificial?

2. ¿Cuáles son los mitos y realidades sobre la inteligencia artificial? 3.

¿Cómo podemos prepararnos como sociedad para convivir con la inteligencia artificial?

4. ¿Por qué el riesgo en el desarrollo de la inteligencia artificial se ha convertido en un tema relevante en la actualidad? 5.

¿Qué sistemas y aplicaciones de inteligencia artificial existen hoy en día enfocados en las y los jóvenes?

6. ¿Cuáles son las oportunidades y desafíos de estos sistemas para las juventudes? Referencias bibliográficas Kurzweil, R. (2005). The Singularity is Near. New York: Viking Books.

– 23 –

¿Qué es la inteligencia artificial? matías mattamala aravena, universidad de chile

Este capítulo entrega una breve introducción sobre qué es la inteligencia artificial, definiendo algunos conceptos básicos, su historia y algunas consideraciones para los tiempos actuales a través de tres secciones. En la primera parte se cubren a grandes rasgos los hitos principales de la historia, desde el origen del concepto en 1956 a los avances del deep learning. Posteriormente se procede a detallar mitos y realidades generales de la disciplina, los cuales se encuentran influidos por películas, libros y los medios de comunicación. Por último, se presentan los principales desafíos y oportunidades que caracterizan a la inteligencia artificial, tanto a una escala global para la humanidad, como también en las relaciones sociales locales de los individuos. Introducción Inteligencia artificial, inteligencia computacional, aprendizaje de máquinas, deep learning, machine learning, data science, aprendizaje automático. En estos últimos años hemos sido testigos del enorme apogeo de estos conceptos, no sólo en contextos académicos, sino que además en la industria y la sociedad. ¿Qué son? ¿Cómo surgieron? ¿En qué se diferencian? ¿Por qué son relevantes hoy en día? En este capítulo discutiremos aspectos básicos de la inteligencia artificial (IA), así como el concepto original que dio origen a todo el boom que vivimos actualmente. Revisaremos su historia, mitos y verdades y finalmente sus implicancias para la sociedad en el futuro.

– 25 –

Los orígenes en pocas palabras Si bien en general no hay consenso sobre cómo definir la inteligencia artificial, diremos que es un sistema computacional que ejecuta acciones que se consideraría inteligentes si fueran realizadas por personas (Russell y Norvig, 2010). Sin embargo, si las acciones de este sistema se desarrollan en un contexto particular acotado, como jugar ajedrez o reconocer personas, se dice que es una inteligencia artificial débil o estrecha. Por otro lado, si el sistema manifiesta inteligencia en un amplio conjunto de tareas y entornos, resolviendo problemáticas que podría solucionar una persona, se considera que se habla de una inteligencia artificial fuerte o general (Searle, 1980). El concepto de inteligencia artificial se remonta a 1956, cuando un grupo de matemáticos, físicos, cientistas sociales e ingenieros acuñaron el término en el «Proyecto sobre Inteligencia Artificial» en Dartmouth College, EEUU. El objetivo de esta iniciativa era estudiar «cada aspecto del aprendizaje o cualquier otra característica de inteligencia que pueda ser, en principio, tan precisamente descrita que una máquina pueda simularla» (Nilsson, 2011). No obstante, la idea de crear entes artificiales con capacidad de razonamiento humano se remonta al trabajo del matemático británico Alan Turing y su célebre test (Turing, 1950), los modelos matemáticos de las neuronas de McCulloch y Pitts (1943), y las diversas campañas de las artes, literatura, filosofía, ciencias y matemáticas, desde tiempos inmemorables, que buscaban representar al ser humano y comprender su funcionamiento, como tanto facilitar sus labores y formalizar el razonamiento (Nilsson, 2010). Mirando la historia podemos interpretar el hito de 1956 como un punto de encuentro y formalización de diversas ideas que desde siempre habían intrigado a la humanidad. El creciente entusiasmo de 1956 dio origen a dos grandes líneas de desarrollo de la inteligencia artificial: el conexionismo y los sistemas formales. La primera se inspiró fuertemente en la biología a partir del modelo de McCulloch y Pitts, con lo que se abrió el campo de las redes neuronales artificiales, con las cuales se buscaba principalmente «aprender» patrones. La segunda correspondía a sistemas que buscaban esquematizar el razonamiento basándose en reglas formales del tipo «si-entonces». Ambos sistemas tuvieron un gran éxito hasta la década de los sesenta y los setenta, cuando (1) se

– 26 –

demostró que los sistemas conexionistas tenían limitaciones teóricas que impedían su aplicación en una gran variedad de problemas (Minksy y Papert, 1969), (2) y los gobiernos recortaron presupuestos debido a que las aspiraciones y promesas iniciales del área no generaron los resultados esperados (Lighthill, 1973). Ambos hechos dieron inicio al conocido «Primer Invierno de la IA» (AI Winter en inglés), que retrasó considerablemente los progresos del área.

figura 1: ejemplos de conexionismo y sistemas formales. izquierda: el conexionismo se basa en el concepto de neurona artificial, en el que un determinado patrón se pasa a una forma vectorial, la cual es procesada por la neurona n para asociarla a un determinado concepto, un «7» en este caso. derecha: los sistemas formales, por otro lado, se basan en el establecimiento de reglas, que permiten tomar decisiones con base en ciertas sentencias predefinidas.

A pesar de lo anterior, durante los años siguientes los sistemas formales evolucionaron a sistemas expertos Los cuales buscaban sintetizar el conocimiento de especialistas de diversas áreas para resolver problemas específicos. Algunos ejemplos de ello son DENDRAL, un programa para asistir la búsqueda de moléculas químicas, y MYCIN, un sistema experto para diagnosticar moléculas de sangre infecciosas (Crevier, 1993). Estos sistemas lograron un gran éxito durante los setenta, llegando a conformar soluciones comerciales en los ochenta y los noventa. Los sistemas conexionistas, por otro lado, no gozaron del éxito de los sistemas formales, pero tuvieron desarrollos importantes durante los ochenta, como el algoritmo backpropagation para «entrenar» redes neuronales. En los años setenta surgió otro paradigma de sistemas de inteligencia artificial basados en probabilidades y estadísticas. Estos sistemas formalizaron el reconocimiento de patrones y el aprendizaje con base en datos del concepto de clasificadores. El éxito que tuvieron, principalmente a fines de los años ochenta, produjo otra caída del conexionismo en los noventa. Esto, ligado a los problemas de escalabilidad y mantenimiento de los sistemas expertos, además de

– 27 –

cambios en la industria de computadores que pasó a ser dominada por IBM y Apple, terminó provocando el «Segundo Invierno de la IA». Desde los años noventa, la mayor parte de los sistemas conocidos como inteligencia artificial se basaban en los sistemas estadísticos mencionados ya. Producto de los fracasos anteriores, el mismo concepto de IA dejó de ser usado, dando paso al de aprendizaje de máquinas o machine learning. Asímismo, conceptos como aprendizaje supervisado, aprendizaje no supervisado y aprendizaje reforzado pasaron a ser las áreas de desarrollo principal y casi único interés en la disciplina, donde los datos cobraron una importancia fundamental. Este paradigma basado en los datos y su utilización, actualmente conocido como data science, fue creciendo en la industria en los años 2000, la cual empezó a encontrar utilidad en datos históricos de las compañías, los que podían ser analizados con herramientas de aprendizaje de máquinas para así encontrar patrones y tomar mejores decisiones. La última revolución en el área empezó a producirse en el año 2012. Con los nuevos recursos computacionales disponibles, principalmente por el lado de las tarjetas de video o GPU, además de los avances teóricos, el conexionismo comenzó a gozar de un nuevo interés bajo el nombre de aprendizaje profundo o deep learning. Los mismos esquemas de redes neuronales artificiales de los ochenta se llevaron a una escala mayor, permitiendo procesar imágenes y audio con resultados impensados a la fecha, abriendo un mundo nuevo de posibilidades para la investigación y soluciones para la industria. El deep learning definitivamente revolucionó la disciplina, reviviendo conceptos olvidados como redes convolucionales y redes recurrentes, además de introducir ideas innovadoras como las redes adversarias y el aprendizaje reforzado profundo. Sin embargo, es oportuno señalar que aún quedan vacíos teóricos que permitan comprender completamente el funcionamiento de estos métodos.

– 28 –

Diferenciando la ficción y la realidad El concepto de IA indudablemente está rodeado de mitos, muchos de los cuales han sido popularizados por cuentos, libros, películas y videojuegos. En efecto, la influencia de personajes como BB-8, C3PO (Star Wars), Jarvis, Ultron (Iron Man) o Skynet (Terminator) ha tenido un gran impacto en lo que socialmente se entiende por inteligencia artificial y sus consecuencias para la humanidad. Es relevante notar que estos ejemplos –y lo que generalmente vemos en películas– corresponden a lo que anteriormente definimos como IA fuerte o general, ya que reconocemos seres artificiales con un alto nivel de razonamiento e interacción, comparables a lo que realizaría cualquier humano. Esto, combinado con las promesas que siempre han existido por varios promotores de la disciplina (Crevier, 1993), además de los medios de comunicación cubriendo ampliamente los desarrollos (Palazuelos, 2017; Nieva, 2017), ofrecen un panorama en que pareciera ser que la IA general está «a la vuelta de la esquina». Sin embargo, si bien lo anterior ha inspirado y propiciado la evolución de la IA, en la actualidad no existe ningún sistema parecido o cercano capaz de lograr tal nivel de complejidad (Knight, 2017). Esto se debe a que el desarrollar inteligencias artificiales generales ha resultado más difícil en la práctica de lo que parecía ser en la teoría. Por dar un ejemplo, para el problema de reconocimiento de objetos a través de imágenes, que fue originalmente propuesto como un «problema de verano» para estudiantes del MIT (Papert, 1966), no se ha logrado desarrollar, hasta la fecha, un sistema con un nivel de generalización comparable al que alcanzan los humanos. Esta problemática, conocida como «La Paradoja de Moravec», indica que «es comparativamente fácil hacer que los computadores demuestren inteligencia a nivel de adultos en test de inteligencia o jugando damas, pero es difícil o imposible darles las habilidades de un niño de 1 año cuando se trata de percepción y movilidad» (Moravec, 1988). Dado lo anterior, la mayor parte de los sistemas de IA que podemos encontrar en nuestro día a día corresponden a inteligencias artificiales débiles, que se desempeñan lo suficientemente bien para que las personas ya no tengan que realizar la tarea particular que ellos solucionan. Ejemplos conocidos se encuentran en las redes sociales como Facebook, Twitter o Instagram, razón por la cual la IA ha llegado

– 29 –

también al público general. Aspectos básicos de estas plataformas que se consideran IA, involucran el identificar automáticamente a las personas presentes en las fotos que subimos; este proceso, antiguamente realizado de forma manual, ahora se produce automáticamente gracias a técnicas de IA, basándose en principios de clasificación como los discutidos anteriormente (Figura 2). Es necesario aclarar que estos sistemas no funcionarían si no fuera por los usuarios que etiquetaron manualmente todas las fotos de sus amigos y conocidos (y sin cobrar nada).

figura 2: un ejemplo de los avances en reconocimiento de rostros en facebook. izquierda: una imagen de un grupo de personas obtenida de la página de facebook de beauchef proyecta. derecha: código html de la página de facebook correspondiente a la imagen, donde parte de los metadatos indica que «la imagen podría contener 28 personas; gente sonriendo».

Otra herramienta común son los sistemas de recomendación que se aprecian en estos sitios mediante de las recomendaciones de amigos, como por ejemplo personas a seguir, páginas interesantes, publicidad y otras sugerencias. Todas son producto de un análisis automático del comportamiento que cada usuario manifiesta mientras navega en el sitio, las páginas que ya ha visitado o que ha seleccionado como favoritas, y las personas a las que sigue, entre otras características. Lo mismo ocurre con los motores de búsqueda como Google, que son capaces de combinar la información de búsqueda con los perfiles de sus usuarios para mostrar los «mejores resultados para cada persona» ,y con sitios de entretenimiento como YouTube, Netflix o Spotify, que recomiendan nuevos contenidos basados en películas, series, videos o bandas reproducidas anteriormente. Con el auge de los teléfonos inteligentes, la IA también se ha hecho móvil. Actualmente consiste básicamente en un sistema de inteligencia artificial altamente conectado con servicios remotos (conocidos como la «nube»), lo cual permite procesar datos complejos a pesar

– 30 –

de las capacidades de procesamiento de los celulares. Así, sistemas como Apple Siri, Google Assistant, Microsoft Cortana o Amazon Alexa son capaces de responder a preguntas en lenguaje natural sin requerir conocimientos previos de instrucciones o comandos para interactuar con nuestros dispositivos. Otro aspecto interesante es que muchos sistemas de IA han estado alrededor de nosotros por bastante tiempo, pero no estamos conscientes de ello. Esto ocurre por el llamado Efecto IA1, en que una tecnología de IA deja de ser considerada como tal apenas tiene éxito comercial, cambiando muchas veces de nombre y pasando a ser una tecnología en sí misma. Un ejemplo de ello son las lavadoras automáticas, ya que si contamos con una lavadora de ropa automática en casa, es muy probable que en alguna parte del panel nos encontremos con la misteriosa palabra fuzzy. Esta palabra inglesa, que significa difuso, hace mención a una técnica de inteligencia artificial surgida a mediados de la década de los años cincuenta, conocida como lógica difusa (Cintula, Fermüller y Noguera, 2017). Sin embargo, hoy en día la lógica difusa no se desarrolla como antes y «por el hecho de funcionar» dejó de ser considerada activamente como IA. Otro ejemplo de ello, en el mundo de los teléfonos inteligentes, son los filtros de Instagram que superponen objetos virtuales a los rostros (Figura 3, derecha). Si bien el problema de reconocimiento de caras y la identificación de características en estos era parte de la IA, ahora se estudia y desarrolla bajo el nombre de «realidad aumentada» (en inglés Augmented Reality o AR).

1

Un comentario interesante al respecto lo ofrece el investigador en robótica Rodney Brooks: «Cada vez que encontramos una nueva pieza (del problema de construir una IA) deja de ser mágico; decimos ‘oh, es sólo un cálculo de computador’» (Kahn, 2002).

– 31 –

figura 3: algunos ejemplos de sistemas de inteligencia artificial que se pueden encontrar en los smartphones. izquierda: sistema de traducción online de google translate, el cual permite traducir texto al español manteniendo el estilo. si bien el sistema es capaz de traducir correctamente parte del texto, hay errores en algunas palabras o traducciones que no se efectúan por las limitaciones técnicas de la aplicación. derecha: una foto del autor probando los filtros de instagram. esta tecnología, que antiguamente era clasificada como ia, ahora se considera simplemente como realidad aumentada.

Oportunidades y amenazas de la IA: una mirada global y local En la última parte de este capítulo nos enfocaremos en los desafíos que conlleva el auge de la IA en estos últimos años, producto de los progresos científicos y éxitos industriales discutidos anteriormente. Estos desafíos son de particular relevancia para las juventudes que están viviendo este desarrollo, ya que serán ellas las principales usuarias y responsables de las implicancias que tendrá la IA en el futuro. En esta breve discusión consideraremos dos espacios principales de acción: uno global, que considera a la humanidad y sociedad en general, y otro local, que se refiere a las relaciones entre individuos y responsabilidades personales. En la escala global es innegable que el desarrollar sistemas inteligentes, en el sentido general de tener capacidades intelectuales humanas, o super-humanas presenta un mundo de posibilidades que permitirían solucionar los grandes problemas de la humanidad. Sin embargo, hay muchos científicos y personajes públicos que piensan lo contrario (Palazuelos, 2017). Los argumentos se basan principalmente en los estudios de riesgo existencial del filósofo Nick Bostrom, quien ha alertado muchas veces sobre las amenazas que implica el alcanzar inteligencia artificial al nivel humano y luego super-humano (Bostrom,

– 32 –

2014), pudiendo aparecer «dictadores artificiales» que amenacen las estructuras sociales humanas actuales, una suerte de «revolución de las máquinas» como ha sido ilustrada en muchas películas y en la literatura. La educación apropiada sobre el tema, la formación de especialistas y la generación de políticas públicas son aspectos vitales para evitar este tipo de amenazas. A pesar de los riesgos que implicaría este escenario, no hay claridad aún de si la creación de una IA general ocurrirá en el mediano o largo plazo. Los especialistas tienen diversos diagnósticos (IEEE Spectrum, 2017). Algunos incluso creen que los enfoques actuales han estancado la disciplina por décadas (Hartnett, 2018). Empero, ya existen amenazas de corto plazo que han influido o influirán directamente en las vidas de muchas personas, tales como la amenaza por la automatización del trabajo2, el uso de sistemas autónomos para fines militares (Singer, 2009), o la excesiva confianza en los datos para la toma de decisiones –o dataísmo–, perdiéndose así la libertad de los individuos (Harari, 2016). Un último aspecto interesante sobre este tópico global es que la mayoría de las amenazas –inteligencias artificiales malignas, automatización del trabajo, uso de robots en la guerra– son parte de una visión profundamente occidental. Si nuestra mirada a la visión oriental de la tecnología, principalmente la japonesa, nos encontraremos con visiones mucho más positivas en las que se considera la tecnología como algo neutro, sin un carácter positivo o negativo, y que debe orientarse al beneficio de la humanidad (Mori, 1989). A escala local, es importante identificar la responsabilidad que tenemos al utilizar y desarrollar este tipo de tecnologías. En la sección anterior discutimos varias formas en que la IA ha impactado directamente nuestras vidas y ha facilitado muchas tareas complejas para nosotros, como la traducción de idiomas, o interfaces más accesibles, pero esto requiere un uso responsable de las tecnologías. Las noticias falsas (fake news) son una de las grandes problemáticas que nos ha tocado vivir estos últimos años, frente a las cuales la IA presenta un arma de doble filo. Si bien se están desarrollando métodos automáticos para detectarlas y evitarlas, también las mismas 2

Un sitio interesante al respecto es el de «Will Robots Take My Job?»: .

– 33 –

herramientas pueden ser utilizadas para generar contenido falso que parece completamente confiable (Susarla, 2018). Asimismo, es importante identificar y ser críticos al momento de informarse respecto a los avances y no ser víctimas del Efecto Eliza (Ekbia, 2009), en que a sistemas se les han atribuido características de inteligencia –más aún, conciencia–, por el hecho de manifestar un comportamiento «humano» en un contexto específico, como lo ocurrido en 2017 con los bots de Facebook que habían «inventado su propio lenguaje» (McKay, 2017). Por otro lado, como desarrolladores de sistemas de IA debemos estar conscientes de los sesgos y prejuicios que muchas veces son embebidos en estos, lo cual, como indica la matemática Cathy O’Neil, puede segregar a grupos en nuestras sociedades (del Castillo, 2018). Considerando que en la sociedad actual los grandes grupos de investigación son países europeos o norteamericanos de habla inglesa, de raza blanca y en su mayoría hombres, estas características se ven reflejadas directamente en los sistemas, formándose así «machistas y racistas» (Jané, 2016; Peirano, 2017). Aspectos como el lenguaje para el que se realizan estos sistemas también son vitales, sobre todo conociendo investigaciones en neurociencia que sugieren la importancia del lenguaje en nuestra percepción del entorno, como los colores (Goodhill, 2018). Así, el gran desafío es trabajar en pos de sistemas más inclusivos y accesibles para toda la sociedad, generando soluciones que tengan impacto real, pero al mismo tiempo acercándonos a sus orígenes en Dartmouth, buscando entendernos a nosotros mismos. Referencias bibliográficas Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press. Cintula, P., Fermüller, C. G. & Noguera, C. (2017). Fuzzy Logic. Stanford Encyclopedia of Philosophy. Recuperado de . Crevier, D. (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. Del Castillo, C. (29 de octubre de 2018). «La próxima revolución política será por el control de los algoritmos». El Diario. Recuperado de .

– 34 –

Ekbia, H. R. (2009). Artificial dreams: The quest for non-biological intelligence. Cambridge: Cambridge University Press. Goodhill, O. (7 de noviembre de 2018). The language you speak changes the colors you see. Quartz. Recuperado de . Harari, Y. N. (2016). Homo Deus: Breve Historia del Mañana. Barcelona: Debate. Hartnett, K. (15 de mayo de 2018). To Build Truly Intelligent Machines, Teach Them Cause and Effect. Quanta Magazine. Recuperado de . Human-Level AI Is Right Around the Corner –or Hundreds of Years Away (31 de mayo de 2017). IEEE Spectrum. Recuperado de . Jané, C. (3 de mayo de 2016). ¿Por qué los robots hablan mejor inglés? El Periódico. Recuperado de . Kahn, J. (1 de marzo de 2002). It’s Alive. Wired. Recuperado de . Knight, W. (30 de noviembre de 2017). Progress in AI Isn’t as Impressive as You Might Think. MIT Technology Review. Recuperado de . Lighthill, J. (1973). A Report on Artificial Intelligence. UK Science and Engineering Research Council. McCulloch, W. S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5: 115. McKay, T. (1 de agosto de 2017). Lo que realmente sucedió con aquella IA que Facebook apagó porque había creado su propio lenguaje. Gizmodo. Recuperado de . Minsky, M. & Papert, S. A. (1969). Perceptrons: An Introduction to Computational Geometry. Cambridge: MIT Press. Moravec, H. (1988). Mind Children. Cambridge: Harvard University Press. Mori, M. (1989). The Buddha in the Robot. Tokyo: Kosei Publishing Company. Nieva, R. (31 de julio de 2017). Facebook cierra ‘chatbots’ que crearon un lenguaje secreto. CNET. Recuperado de . Nilsson, N. (2015). The Quest For Artificial Intelligence: A History Of Ideas And Achievements (Web Version). Cambridge: Cambridge University Press. .

– 35 –

Palazuelos, F. (18 de julio de 2017). Elon Musk: «La inteligencia artificial amenaza la existencia de nuestra civilización». El País. Recuperado de . Papert, S. (1966). The Summer Vision Project (reporte técnico). Massachussets Institute of Technology, Cambridge, EEUU. Recuperado de . Peirano, M. (18 de abril de 2017). Así es como la Inteligencia Artificial adquiere sesgos machistas y prejuicios raciales. World Economic Forum. Recuperado de . Russell, S. & Norvig, P. (2009). Artificial Intelligence: A Modern Approach (tercera edición). EUA: Pearson. Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457. Singer, P.W. (2009). Wired for War. New York: Penguin Books. Susarla, A. (20 de mayo de 2018). Cómo puede la inteligencia artificial detectar y crear noticias falsas. El País. Recuperado de . Turing, A. (1950). Computing Machinery and Intelligence. Mind, 59 (236), 433.

– 36 –

Inteligencia artificial subconsciente: ¿un fenómeno en emergencia? renato pincelli, marcos «tuca» américo y francisco rolfsen belda, universidad estatal paulista «júlio de mesquita filho» (unesp).

Hace más de medio siglo que científicos de la computación vienen desarrollando sistemas de inteligencia artificial (IA) en busca de algo que se asemeje a una conciencia como la humana. Se han utilizado varios enfoques, pero el más exitoso hasta ahora es el llamado aprendizaje de máquinas (o machine learning), que ha sido ampliamente aplicado en los últimos años. Hay varias discusiones sobre lo que es una conciencia artificial, pero es posible que ya estemos presenciando la emergencia de una etapa intermedia de subconsciencia artificial. En este texto presentamos un panorama histórico de la IA, definiciones de subconsciente y relatamos algunos casos que pueden evidenciar el surgimiento de subconscientes artificiales como efecto colateral del aprendizaje de máquinas. Por último, cerraremos con una breve discusión sobre los impactos de este fenómeno emergente en el futuro de la IA. Introducción La primera década y media del siglo XXI puede ser caracterizada, en términos tecnológicos, por el rápido desarrollo y utilización de las inteligencias artificiales (IA). Desde los formatos de películas y música en servicios de streaming como Netflix y Spotify, a las investigaciones clínicas y militares, las inteligencias artificiales se encuentran por todas partes. Tanto es así que muchas pasan desapercibidas por el común de los usuarios. Estas aplicaciones prácticas son sólo un objetivo secundario en las investigaciones en IA, cuya principal meta desde su surgimiento en los años 1950 ha sido la creación de una conciencia artificial, es decir, una entidad virtual inteligente e indistinguible de una persona común según la Prueba de Turing – 37 –

(Turing, 1950, p. 460). Sin embargo, el desarrollo de redes neuronales profundas operadas por medio del aprendizaje de máquinas, definido como la programación de un sistema para que pueda aprender de sus propias experiencias, ha llegado sólo a la solución de problemas muy específicos. Esta concepción sobre la IA ha llevado a consecuencias inesperadas, como máquinas que no saben justificar los motivos de sus respuestas o incluso que parecen soñar. En este contexto se hace presente un fenómeno que podemos denominar como «Inteligencia artificial subconsciente». Inteligencia artificial: contexto histórico y definiciones Las raíces históricas de la inteligencia artificial (IA) se remontan a René Descartes (1979), quien veía animales y personas como autómatas naturales. Empero, como recuerda Gardner (2003), Descartes era escéptico en cuanto a la simulación de la mente. En el siglo XVII comenzaron los desarrollos prácticos de las teorías cartesianas, como los autómatas de Jacques de Vaucanson (1709-1782) configurados como tocadores de flauta (Figura 1), de tambor y patos mecánicos que parecían comer granos, digerirlos y defecarlos. Estos mecanismos habrían tenido sólo la apariencia de inteligentes, pero no lo eran de manera efectiva. En el siglo XIX, los avances tecnológicos y matemáticos permitieron que Charles Babbage (Copeland, 2000) pudiera desarrollar una compleja máquina capaz de realizar cálculos. De hecho, la máquina de Babbage es considerada el primer computador moderno. Para Ada Lovelace, tal máquina podía ser programada para ir más allá de los cálculos numéricos, siendo capaz de jugar ajedrez (Fuegi y Francis, 2003). Es lo que podemos llamar la virtualización de los viejos autómatas.

– 38 –

figura 1: tocador de flauta, autómata de jacques de vaucanson (1709-1782).

Entre el siglo XIX y el comienzo del siglo XX, otros progresos teóricos vinieron de George Boole, Alfred North Whitehead y Bertrand Russell (Gardner, 2003). Con base en el estudio minucioso de la lógica y del pensamiento, Boole creó lo que Gardner describe como una especie de «álgebra mental», donde todo podría expresarse en términos de sí o no, 0 ó 1. La lógica booleana, refinada por Whitehead y Russell (1912), sería la base de la programación de las computadoras modernas y, más tarde, de la IA. Pero, ¿qué es la IA? En general, la IA puede ser definida como un programa o máquina cuyo procesamiento de datos se asemeja al modo de pensar de los seres humanos. Sin embargo, el consenso termina ahí. Según Gardner: Las definiciones enfatizan la creación de programas; otras se concentran en lenguajes de programación; otras comprenden el hardware mecánico y el componente conceptual humano, así como el software. Algunos practicantes quieren simular los procesos humanos de pensamiento de forma exacta, mientras que otros se contentan con cualquier programa que lleve a consecuencias inteligentes. (2003: 155).

En efecto, surgen dos campos conocidos como la IA débil y la IA fuerte. La primera busca replicar metódicamente el raciocinio humano para probar teorías psicológicas y evolutivas. En este caso, la IA sería sólo una herramienta de investigación, una especie de ratón de laboratorio. La IA fuerte, a su vez, tiene el objetivo explícito de crear sistemas dotados de conciencia, indistinguibles de un ser

– 39 –

humano de acuerdo con la Prueba de Turing. Este enfoque ve el desarrollo de las IA no como un medio de estudio, sino como un fin en sí mismo. En general, las IA que describimos en este artículo pueden clasificarse como de tipo fuerte. De vuelta al desarrollo histórico, surgen grandes avances a mediados del siglo XX. En 1938, Claude Shannon demuestra que los circuitos electrónicos se pueden programar y operar según la lógica booleana (Shannon, 1938). Cinco años más tarde, Warren McCulloch y Walter Pitts (1943) dan los primeros pasos en el desarrollo de las redes neuronales. Sin embargo, Gardner pone el marco fundamental de las investigaciones en IA en el año 1956, cuando se realizó el Taller de Darthmouth. En este evento, los investigadores Herbert Simon, Allen Newell, Marvin Minsky y John McCarthy discutieron la posibilidad de que los programas informáticos tuvieran la capacidad de comportarse o pensar de manera inteligente. Se asigna a McCarthy la creación del término inteligencia artificial tal como lo conocemos. En 1956, Newell y Simon crearon el programa Logic Theorist (LT), dedicado a descubrir pruebas para teoremas de lógica simbólica. Capaz de resolver 38 de los 52 teoremas del capítulo 2 de Principia Mathematica de Whitehead y Russell (1912), el LT puede ser considerado el primer software dotado de IA (Newell y Simon, 1956). En los años 60, Minsky actuó como orientador en proyectos que resultan en sistemas capaces de hacer analogías visuales y resolver problemas de álgebra expuestos de manera lingüística (Minsky, 2011). Mientras tanto, McCarthy creó LISP, un lenguaje de computación que sería fundamental en el campo de la IA (McCarthy, 1960). Recursivo, jerárquico y flexible, LISP y sus derivados continúan siendo utilizados por científicos de computación especializados en investigaciones cognitivas. En 1970, Therry Winograd realiza el experimento SHRDLU (Figura 2), un programa capaz de seguir instrucciones para manejar bloques de construcción en un entorno virtual. Al ser la que podía interactuar con el mundo de manera más o menos concreta, SHRDLU fue notable por ser capaz de hacer algunas interpretaciones de lenguaje, como por ejemplo distinguir entre preguntas, instrucciones y comentarios de sus usuarios (Winograd, 1972).

– 40 –

figura 2: shrdlu. captura de pantalla de video en youtube.

Tal vez el sistema de aprendizaje de máquinas más antiguo sea el PERCEPTRON, elaborado entre 1958 y 1962 por Frank Rosenblatt en el Cornell Aeronautical Laboratory. El propósito de este sistema era reconocer patrones a través de sus ojos que estaban formados por una red de 400 fotocélulas (Rosenbaltt, 1957). El procesamiento de la imagen era hecho por un conjunto de elementos asociados. Inicialmente, las conexiones se efectuaban al azar. Minsky criticó este enfoque, considerando necesario el uso de un mecanismo de retroalimentación que informara a la máquina sobre sus errores y aciertos. A principios de los años 1970, Patrick Winston desarrolló un programa capaz de distinguir cuándo los bloques formaban un arco y cuándo no. Además de arcos, el sistema aprendió a identificar mesas, pedestales y logias después de ser expuesto a una serie de ejemplos y contra-ejemplos (Winston, 1970). Estos avances no significan que la IA haya sido recibida con entusiasmo y libre de críticas en la comunidad académica. Una de las críticas más contundentes a la IA fue hecha por Hubert Dreyfus en 1972. El filósofo de la vertiente fenomenológica argumentaba que, a diferencia de las personas, las computadoras no son capaces de lidiar con subjetividades o ambigüedades porque no tienen lo que él

– 41 –

llama «conciencia periférica» (Dreyfus, 1979). Otra posición bastante dura fue la de John Searle en 1980, atacando atacó el concepto de IA fuerte con el experimento mental del Cuarto Chino (Searle, 1982). Básicamente, Searle se imaginaba encerrado en una habitación donde recibía conjuntos de caracteres chinos e instrucciones para correlacionarlos. Las instrucciones estaban en inglés, lengua que Searle comprendía. Así, incluso sin entender una palabra de chino, Searle podía pasar por un hablante nativo después de cierto tiempo de entrenamiento bajo esas condiciones. Para él, eso era evidencia de que las inteligencias artificiales fuertes no tenían mente, siendo sólo autómatas muy bien elaboradas. Críticas como esta y muchas otras continuaron desde los años 70 hasta mediados de los años 80, un período de crisis que, junto a problemas como falta de financiamiento, se conoció como «el invierno de la IA». Las limitaciones, especialmente las técnicas, comenzaron a ser superadas con el surgimiento de Internet en los años 90. Como recuerda Knight (2017), fue sólo a partir de ahí que el aprendizaje de máquinas y el desarrollo de redes neuronales profundas se hicieron posibles, gracias a la informatización y al creciente volumen de datos disponibles en línea. Antes de eso, quien quisiera proponer una IA clasificadora de música, por ejemplo, necesitaría exponerla a músicas dispersas entre diversos medios físicos, como LPs y cintas de casete, almacenados en muchos lugares diferentes y muchas veces inaccesibles. Con la música digitalizada esto se hizo más fácil y se pudo desarrollar una IA capaz de darnos sugerencias musicales (como la de Spotify) que hoy en día es ampliamente utilizada y pasa casi desapercibida como una IA. Sin embargo, Knight también recuerda que un sistema de aprendizaje profundo, capaz de aprender y/o programarse, sólo es, por su propia naturaleza, una caja negra muy oscura. En ese punto surgen inteligencias artificiales insondables como el subconsciente humano. Subconsciente o inconsciente Desde que comenzó a ser estudiado por Sigmund Freud a principios del siglo XX, el subconsciente o inconsciente ha sido objeto de múltiples definiciones en el medio académico (Freud, 2016). Incluso en el lenguaje del día a día, este es un término difícil de definir.

– 42 –

Holanda (2010) señala la existencia de no menos de 11 significados de inconsciente en el Diccionario Houaiss de la Lengua Portuguesa. Dadas nuestras limitaciones de tiempo y espacio, vamos a presentar aquí sólo cinco visiones distintas sobre ese fenómeno: las de Freud, Lacan, Merleau-Ponty, Vigotski y Damasio. Castro (2009) hace una comparación del inconsciente desde los puntos de vista de Freud y Lacan. Según este autor, el inconsciente descubierto por Freud era muy distinto del «intuido hasta entonces por los poetas y filósofos –un reino oscuro y caótico, situado fuera de los límites de la conciencia». Freud basa su estudio del inconsciente en la interpretación de los sueños. Sin embargo, él no huye a las concepciones un tanto mecanicistas de su época y considera al inconsciente como una especie de reservorio de emociones reprimidas que sería abierto durante los sueños. Para Lacan (1999), esta visión de los psicoanalistas sería algo oscurantista, por no «distinguir el inconsciente del instinto o, como ellos dicen, del instintivo». Empero, el inconsciente no sería el caracterizado por la falta de conocimiento: «El inconsciente no es perder la memoria; es no recordar lo que se sabe» (Lacan citado en Castro, 2009). Con el fin de corregir lo que considera oscuro en el psicoanálisis, Lacan busca aplicar conceptos lingüísticos al estudio del inconsciente. Para él, el inconsciente está tan dotado de lenguaje y sus símbolos como la conciencia. La diferencia es que en el inconsciente el lenguaje sería inarticulado o articulado de modo irreconocible a primera vista, con relaciones tan enigmáticas como los jeroglíficos. Una posición radicalmente opuesta tanto a Freud como a Lacan es la de Merleau-Ponty, que en 1954 cuestiona el inconsciente freudiano como un «segundo sujeto pensante» que sería innecesario (1971). Según Holanda (2010), Merleau-Ponty consideraba la conciencia como algo siempre perceptivo, siempre ligado al cuerpo de manera inseparable y en permanente diálogo con el mundo: «No hay que buscar en el concepto de inconsciente, dado que el cuerpo es el centro de las referencias de la existencia y el espacio donde la existencia es vivida, y donde convergen el ‘pre-personal’ y el ‘personal’». Holanda concluye su artículo afirmando que, para el filósofo francés, «el inconsciente no debe ser buscado en el ‘fondo’ de nosotros mismos, sino delante de nosotros, en articulación con el mundo», donde sólo existirían lo visible y lo invisible. – 43 –

Otra postura distinta es la de Vigotski que, según Pessanha (2015), veía el inconsciente como una cuestión puramente teórica, filosófica, gnoseológica y no como algo con existencia concreta y empírica. Para el investigador ruso, conciencia y psiquis son la misma cosa y no sobra espacio para el inconsciente. «Psiquis inconsciente» sería algo tan contradictorio como «cuadrado redondo». Vigotski veía la inconsciencia como algo que, en las palabras de Pessanha, existiría sólo para «llenar los límites, los saltos, las omisiones y distorsiones de la conciencia». En vez de inconsciente, Vigotski habla en comportamientos no verbales y en automatismos (Vigotski, 2004). Por ejemplo, no tenemos recuerdos de la primera infancia porque el pensamiento en esa fase no es verbalizado. Cuando aprendemos algo por primera vez, como atar un nudo, lo hacemos con plena conciencia, prestando atención a todos los detalles de un acto que, con el paso del tiempo, se vuelve automático y cada vez menos consciente pero no enteramente inconsciente. Un enfoque más reciente es el de Antonio Damasio (2000), quien busca evitar la ambigüedad de los términos subconsciente e inconsciente. Para el autor, el inconsciente se resume en un conjunto de procesos y contenidos que pasan desapercibidos, como las imágenes para las cuales no estamos atentos, y las habilidades que adquirimos por la experiencia, pero que se vuelven automáticas con el paso del tiempo. A partir de un enfoque neurológico y evolutivo, Damasio habla de un «proto-self», algo que define como «un conjunto coherente de patrones neuronales que asignan cada momento el estado de la estructura física del organismo en sus numerosas dimensiones» (Damasio, 2000: 201). Este prototipo de self no está dotado ni de lenguaje ni de capacidad de percepción. Por eso, no somos conscientes del «proto-self». Sería, por ende, una forma rudimentaria de (auto) conciencia. No obstante, Damasio también reconoce la importancia de formas de pensamiento inconsciente. Como ejemplo cita a los niños que, a los tres años, «emplean de un modo espantoso las reglas de construcción de su lengua, porque no saben que poseen ese conocimiento» (Damasio, 2000: 375).

– 44 –

Subconsciente artificial El desarrollo de las inteligencias artificiales se ha acelerado en los últimos años, sobre todo con la aplicación de los métodos de aprendizaje de máquinas y su versión más radical, el aprendizaje profundo (deep learning en inglés). Como se ha citado, el aprendizaje de máquinas consiste en la programación de un sistema para que pueda aprender de sus propias experiencias, llegando sólo a la solución de problemas propuestos, a menudo encontrando algoritmos de solución más eficientes o incluso inéditos. En el aprendizaje profundo, la IA se alimenta sólo con una fuente de información –como una base de datos– y algunos algoritmos simples, debiendo ser capaz de aprender por sí misma, sin ninguna programación previa o supervisión externa. Como explica Knight (2017), la aplicación generalizada de estos dos enfoques ha dado lugar a las inteligencias artificiales cada vez más sofisticadas y complejas. El autor relata algunos casos en que ni los propios programadores saben explicar exactamente el funcionamiento de IA basadas en el aprendizaje profundo. Un ejemplo es el sistema conocido como Deep Patient, una IA especializada en investigación médica creada en el Hospital Monte Sinai, en los Estados Unidos. Abastecido con datos de archivos de 700 mil pacientes, Deep Patient se ha mostrado bastante preciso en el diagnóstico de enfermedades. Lo que sorprendió a los investigadores es que este sistema, además, ha logrado anticipar casos de esquizofrenia. Sin embargo, nadie sabe con certeza cómo Deep Patient lo hace y esta IA tampoco es capaz de explicar su razonamiento. Es casi como si el reconocimiento profundo de patrones involucrara algo así como una intuición subconsciente. Para Knight, «por su propia naturaleza, el aprendizaje profundo es una caja negra muy oscura». En su artículo, este autor explica que no es posible observar el paso a paso del raciocinio de una IA que funciona por aprendizaje profundo. Como no hay programación manual implicada –lo que sería muy complejo– los programadores de estos sistemas no saben localizar los motivos del entendimiento de una IA de este tipo. Siendo inaccesible a la conciencia tanto de los investigadores como de la máquina, ¿podría esta forma de pensar artificialmente ser clasificada como subconsciente? Hasta cierto punto sí, pero eso depende de la definición de subconsciente adoptada. Desde la mirada freudiana que presentamos

– 45 –

anteriormente, que ve el subconsciente como algo onírico, existe un sistema que puede ser considerado subconsciente. Se trata de Deep Dream, desarrollado por Google con el propósito de entender cómo se da el reconocimiento de imágenes en IA. Según Knight, Deep Dream (Figura 3) es un sistema de aprendizaje profundo que genera o modifica las propias imágenes, las cuales «presentan animales grotescos, de apariencia alienígena, emergiendo de nubes y plantas o pagodas alucinantes brotando a través de bosques y sierras». Son, de hecho, como sueños artificiales, lo que caracteriza un subconsciente del tipo freudiano.

figura 3: captura de pantalla de google deep dream.

Tal vez el concepto de subconsciente que más se acerca a algunos resultados observados en el desarrollo de inteligencias artificiales sea el de Lacan, que es aquel tipo de subconsciente que no sabe explicar su razonamiento o lo hace de manera inarticulada, algo bien parecido a lo que ocurrió en el caso de Deep Patient. Si seguimos a Damasio, diríamos que ese sistema está dotado de un proto-self, responsable de regular funciones vitales de manera inconsciente. Otro ejemplo de IA que podemos considerar subconsciente es el sistema desarrollado por Jeff Clune, de la Universidad de Wyoming, y sus colaboradores. Según Knight, Clune y sus colegas (2015) lograron aplicar el equivalente a ilusiones ópticas a redes neuronales profundas. Sin embargo, esta es una aplicación de IA débil, pues fue creada

– 46 –

con el propósito de comprender las ilusiones ópticas, aunque, esta investigación reveló que es el procesamiento intermedio de patrones débiles o inexistentes que crea las ilusiones. Procesos similares, subliminales, también podrían suceder con nosotros. Las investigaciones de IA en el campo militar igualmente han resultado en sistemas que bordean la insondabilidad. Como explica Knight, «los soldados probablemente no se van a sentir cómodos en un tanque robótico cuyo funcionamiento no se les explique a ellos». Para resolver esto, DARPA (agencia de investigación del gobierno, departamento de defensa de EE.UU.) está desarrollando una IA capaz de ser comprendida por sus usuarios. Esto podría no ser completamente posible. Incluso cuando pedimos que alguien nos explique por qué hizo algo, esa persona puede no ser capaz de decirnos por qué actuó de cierta manera –o puede tener razones para no querer revelarnos sus motivos. Clune expresa que «puede ser que sea de la naturaleza de la inteligencia tener sólo parte de ella expuesta a la explicación racional» (Clune et al., 2015). Una red neural profunda es utilizada para demostrar cómo la IA aplica algoritmos evolutivos para el reconocimiento de patrones de imágenes (Figura 4) que son irreconocibles para los humanos, pero reconocidas con precisión por máquinas que las consideran objetos naturales. De esta manera, las redes neuronales profundas son fácilmente engañadas. El estudio esclarece diferencias interesantes entre la visión humana y las redes neuronales profundas actuales, y plantea cuestiones sobre la generalidad de la visión computacional de una red neural profunda.

– 47 –

figura 4: imágenes generadas por la red neural profunda que son irreconocibles para seres humanos, pero reconocidas con precisión del 99,6% de certeza por la propia red neural profunda (fuente: clune et al., 2015).

En este punto, surgen problemas de orden filosófico y ético. Habiendo o no un subconsciente, las inteligencias artificiales profundas pasan a exigir algún grado de confianza o incluso de fe para ser utilizadas. Esto puede no ser tan grave cuando una aplicación de teléfono móvil recomienda un nuevo restaurante o una nueva banda, pero la cosa se complica cuando hay inteligencias artificiales del mismo tipo tomando decisiones importantes en los campos militar, económico o médico, sin ser capaz de explicarse totalmente. Para Knight, esto no significa que debemos renunciar al desarrollo o al uso cada vez más cotidiano de la IA. Sin embargo, los nuevos cuestionamientos que surgen junto con la emergencia de lo que llamamos IA subconsciente, son tan profundos y complejos como las redes neuronales en que se basan. Todo indica que estamos entrando en una fase intermedia, situada entre inteligencias artificiales especializadas pero inconscientes e inteligencias artificiales capaces de conocimiento universal y algún grado de conciencia. Estos avances (y otros que pueden surgir) deben conducir a un desarrollo más ponderado, a una velocidad más lenta de innovación, capaz de permitir un acomodamiento entre nosotros y las IA en campos tan diversos como relaciones sociales, económicas, investigaciones médicas, creaciones culturales y cuestiones legales. En algún momento de las próximas décadas comenzaremos a dialogar con las inteligencias – 48 –

artificiales, algo tan inédito que tal vez sea sólo comparable a un contacto con una civilización extraterrestre inteligente. En ambos casos, antes de aprender a comunicarnos unos con otros, necesitaremos desarrollar medios de entendimiento mutuo. Saber cómo piensan estas nuevas inteligencias artificiales será una tarea indispensable. Referencias bibliográficas Bengio, Y. (2009). Learning Deep Architectures for AI. Foundations and Trends® in Machine Learning, 2(1), 1-127. Castro, J. C. L. de (2009). O inconsciente como linguagem: de Freud a Lacan. CASA: Cadernos de Semiótica Aplicada, 7 (1). Recuperado de . Clune, J., Nguyen, A. & Yosinski, J. (2015). Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images. In Computer Vision and Pattern Recognition (CVPR ’15), IEEE, 2015. Recuperado de: . Copeland, B. J. (2000). The modern history of computing. Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University. Damásio, A. (2000). O mistério da consciência: do corpo e das emoções ao conhecimento de si. São Paulo: Companhia das Letras. Descartes, R. (1979). O discurso do método. São Paulo: Abril Cultural. Dreyfus, H. L. (1979). What computers can’t do: The limits of artificial intelligence (Vol. 1972). New York: Harper & Row. Freud, S. (2016). Edição Standard Brasileira das Obras Psicológicas Completas de Sigmund Freud, Volume XIV-A, História do Movimento Psicanalítico, Artigos sobre Metapsicologia e outros Trabalhos (1914-1916). Imago editora. Fuegi, J. & Francis, J. (2003). Lovelace & Babbage and the creation of the 1843 ‘notes’. IEEE Annals of the History of Computing, 25(4), 16-26. DOI: 10.1109/ MAHC.2003.1253887. Gardner, H. (2003). A Nova Ciência da Mente: uma história da revolução cognitiva. São Paulo: Editora da Universidade de São Paulo (3a. edição). Pp. 153-197. Holanda, A. (2010). Notas para uma reflexão sobre consciência e inconsciente na fenomenologia. Rev. Abordagem Gestalt., Goiânia, v. 16, n. 1, p. 45-53, jun. Recuperado de . Knight, W. (2017) The Dark Secret at the Heart of AI. MIT Technology Review, 11 de abril de 2017. Recuperado de . Lacan, J. (1999). O seminário: livro 5-as formações do inconsciente. Jorge Zahar.

– 49 –

McCarthy, J. (1960). Recursive functions of symbolic expressions and their computation by machine, Part I. Communications of the ACM, 3 (4), 184-195. McCulloch, W. S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5 (4), 115-133. Merleau-Ponty, M. (1971). O visível e o invisível (Vol. 40). Editora Perspectiva. Minsky, M. (2011). Brief academic biography of marvin minsky. Website. Recuperado de . Newell, A. & Simon, H. (1956). The logic theory machine. A complex information processing system. IRE Transactions on information theory, 2 (3), 61-79. Pessanha, P. H. C. (2015). O inconsciente na psicologia histórico-cultural de Vigotski: um estudo conceitual. 2015. 101 f. Dissertação submetida para a Banca de Defesa do Programa de Mestrado em Psicologia (PPGPSI) da Universidade Federal de São João Del-Rei (UFSJ). São João Del-Rei. Recuperado de . Rosenbaltt, F. (1957). The perceptron–a perciving and recognizing automation. Report 85-460-1. Cornell Aeronautical Laboratory, Ithaca. Searle, J. R. (1982). The Chinese room revisited. Behavioral and brain sciences, 5 (2), 345-348. Shannon, C. E. (1938). A symbolic analysis of relay and switching circuits. Electrical Engineering, 57 (12), 713-723. Turing, A. (1950). Computing machinery and intelligence, Mind LIX, 433-60. Vigotski, L. S. (2004). Teoria e método em Psicologia (3ª ed.). São Paulo: Martins Fontes. Whitehead, A. N. & Russell, B. (1912). Principia mathematica (Vol. 2). University Press. Winograd, T. (1972). Understanding natural language. Cognitive psychology, 3 (1), 1-191. Winston, P. H. (1970). Learning structural descriptions from examples. Technical Report. Massachusetts Institute of Technology, Cambridge, MA, USA.

– 50 –

Jóvenes e imaginarios sobre inteligencia artificial en México paola ricaurte quijano, tecnológico de monterrey

El imaginario de un futuro en el que podamos utilizar las capacidades de los sistemas de inteligencia artificial (IA) para resolver los problemas más complejos resulta seductor. Ante la emergencia de sociedades altamente dataficadas (Shäfer y van Es, 2017), la inteligencia artificial, luego de haber pasado por un momento de estancamiento, está experimentando un renacimiento con posibilidades ampliadas. Por ello, los gobiernos, las industrias, la academia y los medios de comunicación han construido narrativas sobre la relevancia de alcanzar un lugar en la carrera por la IA que permita extraer, analizar y gestionar enormes volúmenes de datos para optimizar la capacidad predictiva de los algoritmos en casi cualquier sector, tales como el financiero, el automotriz, el educativo, la salud u otros. En los discursos dominantes sobre IA se asume que los resultados de las predicciones algorítmicas son eficaces en la toma de decisiones, la reducción de riesgos, la optimización de procesos, el aumento de la productividad y la innovación. De esta manera, las aplicaciones de IA se encuentran asociadas a la eficiencia de empresas, productos y servicios para atender las necesidades de los usuarios, además de facilitar la gestión organizacional derivada de la generación de conocimiento. Aunque América Latina está en una etapa inicial para la adopción del conjunto de tecnologías que se engloban bajo la etiqueta general –y tal vez difusa– de IA, es posible prever el desarrollo exponencial de estas tecnologías en la región. Se estima que para 2019 el sector alcance 344 millones de dólares y se prevé que las industrias con mayor inversión en soluciones de IA para 2018 sean el gobierno, la banca y los servicios financieros (IDC, 2018). Las empresas tecnológicas

– 51 –

líderes como IBM, Microsoft, Google y Amazon se encuentran ya compitiendo por estos espacios y mercados. Pensando en ese escenario, para 2019 la región sufrirá una carencia de más de 550.000 profesionales relacionados al área de tecnología de la información (IT) (IBM, 2018). Al igual que toda tecnología emergente, las altas expectativas por los sistemas de IA han entrado rápidamente en tensión con la acumulación de evidencia que apunta a una relación entre la IA y la reproducción de la injusticia, prácticas y lenguajes discriminatorios (O’Neil, 2014; Dastin, 2018), pobreza (Eubanks, 2018), o dicho de manera simple, la opresión social (Noble, 2018). En esta nueva batalla geopolítica y a partir del reconocimiento de la centralidad de este momento de acelerado dinamismo tecnológico, vale la pena preguntarnos: ¿Qué marcos de referencia necesitamos para pensar las posibilidades y los riesgos de la IA desde América Latina? ¿Desde qué lugar y proyecto nos situamos en el debate global? ¿Cómo garantizar que el uso de los sistemas de IA no ahonde las violencias, las exclusiones, las desigualdades estructurales y la recolonización a través de la tecnología? ¿Cómo la multiculturalidad entra en tensión con las tecnologías de IA? Y con respecto a la población que nos atañe: ¿Qué factores debemos considerar en su relación con la niñez y las juventudes? Mediante de un ejercicio de carácter exploratorio entre jóvenes estudiantes de México, buscamos dar cuenta de algunos de sus imaginarios como pista para abordar los desafíos económicos, culturales, políticos, jurídicos, laborales, educativos y éticos que acompañan la irrupción de la inteligencia artificial en la región. Agendas digitales y juventudes en México La niñez y la juventud conectadas ocupan un lugar central en el ecosistema de las tecnologías asociadas a la IA. Por una parte, son al mismo tiempo productores (de datos y tecnologías) y consumidores (de servicios y productos) en una región con enorme potencial para su adopción; y por otra, son fuerza laboral presente y futura para el sector. En ambos casos, dada su participación en el circuito de la producción y consumo, los jóvenes se ven a la vez constituidos y afectados por su participación en la sociedad digital. Sin embargo, recordemos que en México la brecha digital sigue siendo prominente

– 52 –

y, como hemos mencionado antes, la calidad del acceso y las infraestructuras asociadas con el acceso también deben tomarse en cuenta (Ricaurte, 2018). En zonas rurales tradicionalmente marginadas, la penetración es muy baja e incluso en zonas urbanas con la mayor penetración, la cartografía del acceso es muy heterogénea. La agenda Digital impulsada por el gobierno de Enrique Peña Nieto (2012-2018) no alcanzó a cumplir con las metas prometidas y el país continúa rezagado en el sector de telecomunicaciones, así como en cuanto a desarrollo científico y tecnológico. El Índice de Preparación para la Automatización (The Economist, 2018) coloca a México en el lugar 23 de los 25 países analizados. Este índice evalúa el ecosistema de innovación, las políticas educativas y las políticas del mercado laboral. La visión de las políticas públicas, en términos de infraestructura tecnológica y apoyo de innovaciones digitales, ha sido demasiado corta y ha fallado en posicionar al país como un jugador relevante en el ecosistema tecnológico a nivel global. Graves son las consecuencias de no desarrollar políticas y acciones que apuesten por la soberanía y reviertan la brecha científica, tecnológica y de innovación. La brecha de conocimiento reproduce la desigualdad, ahonda las formas de exclusión institucional de nuestras poblaciones jóvenes y clausura sus posibilidades de prepararse y participar en el diseño de sus futuros1. Imaginarios sobre inteligencia artificial Si queremos tener una base de conocimiento que sirva como punto de partida para el diseño de políticas públicas en desarrollo científico y tecnológico, y en particular en el caso de las tecnologías de IA, es oportuna la reflexión crítica sobre su valor y sus efectos en la sociedad presente y futura. Por ello, es necesario habilitar mecanismos de participación ciudadana que incluyan la deliberación y toma de decisiones sobre estos temas. Particularmente, en iniciativas encaminadas a la inclusión de poblaciones jóvenes, se debe tomar en cuenta el lugar que ocupa la IA en su imaginario: ¿Qué piensan las juventudes sobre las tecnologías asociadas con la IA? ¿Qué conocen 1

La juventud mexicana no solamente es marginada económica y socialmente: la violencia cobra miles de vidas jóvenes cada año. Durante 2017, de las 29 mil víctimas de homicidio reportadas, 29% eran menores de 18 años (http://indicedepazmexico. org/wp-content/uploads/2018/04/Indice-de-Paz-Mexico-2018.pdf).

– 53 –

al respecto? ¿Cómo las vinculan a sus vidas? ¿Cuáles son sus miedos, sus expectativas? Los imaginarios sociales perfilan nuestra manera de comprender la realidad y a su vez son mecanismos colectivos para darle sentido y hacer posible la vida social: Sabemos que las sociedades viven también a través de lo imaginario –un imaginario que no tiene que ver con la ficción gratuita sino con la necesidad de simbolizar el mundo, el espacio y el tiempo para comprenderlos–, por eso en todos los grupos sociales, la existencia de los mitos, de las historias y de inscripciones simbólicas son referencias que organizan las relaciones entre unos y otros (Augé, 1999: 10).

Dado que los imaginarios articulan el sentido de lo común, de lo compartido, constituyen un terreno de encuentro y disputa en contextos de contacto cultural y colonización (Augé, 1999: 10). Por esta razón, y para pensar la IA no solamente en términos económicos sino también simbólicos y sociales, planteamos realizar un ejercicio de carácter piloto entre estudiantes mexicanos de secundaria para acercarnos a sus imaginarios sobre IA. La muestra no es estadísticamente representativa de la población joven y la consulta se diseñó con el fin de realizar un primer sondeo piloto que permita identificar los posibles ejes de investigación y áreas de oportunidad sobre este tema en México2. Las preguntas del cuestionario se estructuraron alrededor de tres ejes: concepciones de IA (definición, ejemplos, relación con su vida); imaginarios sobre IA (películas o libros, riesgos, futuro); aprendizaje y formación en torno a la IA (formal e informal, carreras). La primera pregunta está relacionada con la definición de IA. Las respuestas obtenidas se pueden agrupar en cuatro categorías diferentes: 1) las IA son máquinas, computadoras, sistemas o programas; 2) son inteligentes o tienen la capacidad/habilidad de razonar/aprender/ 2

Para este primer ejercicio piloto se distribuyó un cuestionario en línea con diez preguntas semi-abiertas que debía completarse de manera anónima, voluntaria y autoadministrada. Fue distribuido entre los estudiantes de dos cursos de secundaria de una escuela privada de estrato socioeconómico medio-alto de la Ciudad de México. Como introducción se explicó la naturaleza académica del estudio y se ofreció la posibilidad de solicitar información adicional mediante una dirección institucional de correo electrónico. El instrumento fue co-diseñado con un estudiante adolescente para adecuar el lenguaje y la pertinencia de las preguntas. Se realizó un análisis textual de las respuestas a través de las herramientas Voyant Tools (https://voyant-tools.org), con el fin de identificar los tópicos recurrentes y su relación. Se obtuvieron 96 respuestas que se presentan en su redacción original, sin ninguna edición, ni corrección ortográfica o gramatical. – 54 –

solucionar problemas/sentir; 3) son sistemas autónomos (funcionan por sí mismos); 4) son creadas por el ser humano. Algunas respuestas dan cuenta de su carácter, con elementos asociados a los avances que representa: ‘progreso’, ‘revolucionario’ y ‘contemporáneo/futurista’. Solamente una respuesta menciona procesos predictivos. Algunas de las definiciones se muestran en la Tabla 1 y los términos más frecuentes aparecen representados en la nube de palabras de la Figura 1. ¿Qué es la inteligencia artificial? La habilidad de una máquina para pensar y razonar. Es aquella tecnología que permite predecir un resultado según la probabilidad de resultados anteriores. Robots. Aquella capaz de resolver problemas que se le presentan y que está en muchos aparatos electrónicos a nuestra disposición para simplificar tareas diarias. Un progreso que eventualmente será destructivo. Un sistema racional creado por seres humanos que tiene la capacidad de generar soluciones a problemas complejos y de aprender cosas nuevas. Un programa que toma decisiones propias con base en experiencias. Como un programa o proyecto que intenta imitar el comportamiento humano, con el fin de ayudar a la humanidad en tareas complicadas que necesitan el razonamiento que un ser humano tiene. La inteligencia artificial es cualquier dispositivo o máquina que percibe los elementos a su alrededor y los procesa, de manera que ofrece respuestas. La capacidad de análisis y pensamiento de las máquinas. Inteligencia creada por el hombre. Una forma de vida que sale a partir de algo que no tenga vida. No sé el significado concreto. La capacidad de una máquina de razonar como un humano, tomar decisiones propias y tener emociones. Todo lo que tenga que ver con tecnología electrónica que sea capaz de «razonar» o «pensar». Serie de datos en algún medio electrónico capaz de realizar tareas complejas. Un puente de conocimiento y sentimientos. Mecanismos lógicos artificiales que se asemejan a la mente humana, con capacidades de memoria, creatividad, emotividad, etc. tabla 1: algunas definiciones de inteligencia artificial3.

3

El subrayado es mío.

– 55 –

figura 1: ¿qué es la inteligencia artificial? fuente: elaboración propia.

Si eliminamos el término más frecuente, inteligencia, podemos observar cómo se destaca la definición en relación con lo humano. Y si excluimos el término humano, veremos entonces la centralidad de la IA como una creación (humana) con capacidades (para pensar, razonar, realizar tareas). Entre las respuestas encontramos obvias referencias a la capacidad de las tecnologías de IA para «razonar» o «pensar», aunque no se menciona cómo se produce o se desarrolla esa capacidad. Lo que llama la atención es que se les atribuyen también sentimientos y emociones e incluso «tener vida». Esta idea podría estar asociada a los referentes fílmicos y a la experiencia propia con asistentes virtuales que emulan comportamientos humanos (sostener una conversación, hacer bromas, etc.). La segunda pregunta solicitaba tres ejemplos de IA. En este caso, los ejemplos señalados por los jóvenes giraron en torno a asistentes virtuales como Siri, Alexa y Cortana, los algoritmos de sitios como Spotify, YouTube, Google, las redes sociales, y otros ejemplos como Watson, Sophia y la IA en los videojuegos. Entre otros, están el carro de Tesla y dispositivos como teléfonos móviles o incluso drones.

– 56 –

Como observamos, pese a que no todos fueron capaces de ofrecer los tres ejemplos, la manera de percibir la IA se encuentra asociada a su universo de lo cotidiano y a las representaciones mediáticas, no necesariamente a los fundamentos de la IA o a la distinción entre la aplicación y el proceso o el funcionamiento de los sistemas inteligentes. Es recurrente, como era lógico, tanto en las definiciones como en los ejemplos, que la IA esté asociada a la corporeidad de máquinas autómatas o a los dispositivos o ambientes en los que se utiliza. En la tercera pregunta les pedimos a los jóvenes que nombraran libros y películas asociadas con el tema de IA. Los jóvenes entrevistados fueron capaces de indicar algunas películas y solamente en dos casos se mencionaron libros, lo que nos ofrece pistas sobre sus prácticas de consumo cultural. Entre las películas señaladas están Wall-E, Her, Yo Robot, Avengers: Age of Ultron, Ex Machina, 2001: Odisea del Espacio. Lo anterior da cuenta de la prominencia del cine estadounidense en la construcción de narrativas e imaginarios sobre el tema. La cuarta pregunta estuvo vinculada a la presencia de IA en las vidas de los jóvenes. Los resultados se muestran entre los extremos: aquellos que afirman que no está presente y los que dicen que está en todo momento, especialmente a través de sus búsquedas en Internet o sus teléfonos celulares. En el futuro, el imaginario está poblado de referencias a la IA como una entidad corporeizada, un robot que coexistirá con el humano y, probablemente, lo superará. Su presencia será «fundamental y cotidiana». Las impresiones van desde las más apocalípticas (rebelándose contra los humanos), hasta las más utópicas (resolviendo todos los problemas sociales), pasando por el riesgo de la pérdida de trabajo humano debido a la automatización. En la Tabla 2 se muestran algunas de las respuestas obtenidas. ¿Cómo imaginas la inteligencia artificial en la sociedad del futuro? Rebelde cuando tenga consciencia de sí misma. Nos va a matar a todos, la verdad será nuestro fin. Robots mutantes. Poblará la tierra. Apoderándose de nuestras vidas silenciosamente, sin que nos demos cuenta.

– 57 –

Pienso que si se regula y hacemos buen uso de ella, podemos llegar a un mundo en el que haya menos desigualdades, mayores oportunidades y más orden. Creciente y afectando habilidades sociales básicas de la gente. Hará cosas impresionantes para realizar acciones que parecen imposibles. Como Wall-E, la película de Pixar. En el futuro, me imagino que la inteligencia artificial será un elemento vital de nuestras vidas. En muchos casos podrá ser tan compleja como el raciocinio humano, e incluso en algunos casos aún más inteligente. Habrá mucho desempleo. Me la imagino como una parte fundamental y cotidiana. Pues Conviviendo con robots. Optimizando la mayoría de las actividades, de todo tipo. Como algo que lleguará a ser tan complejo que tendrá sentimientos. No lo veo claro. Nos harán la vida más fácil cada vez, lo cual no siempre es positivo. Como un asistente para la humanidad haciendo más cosas de las que ya pueden, inclusive como máquinas que realicen tareas como ir por tus hijos y así. Sí, en Dubái hay un robot que es ciudadano. Mala, ya que si de por sí ya estamos todo el tiempo con el celular, será peor. Robots con los mismos derechos y capacidades que nosotros. Sabrá exactamente qué quieres, cómo y cuándo. No la imagino como la muestran en varias películas, donde la puedes encontrar en los hogares de primera clase o en las calles como sistemas obsoletos e incompletos, más bien diría que estará presente en el área de la economía como un elemento de organización o en la milicia. Tampoco la imagino en el área de la docencia. tabla 2. ¿cómo imaginas la inteligencia artificial en la sociedad del futuro?4

Entre los riesgos percibidos en relación al avance de la inteligencia artificial, las respuestas se agrupan en torno a tres problemáticas generales: 1) la idea de que los sujetos se vuelvan inútiles y muy dependientes de las tecnologías, lo que terminaría afectando nuestras capacidades; 2) el riesgo de que la inteligencia artificial reemplace laboralmente a los humanos; y finalmente 3) que las tecnologías vinculadas a la inteligencia artificial terminen saliéndose de control, que nos superen, nos dominen o nos destruyan. Solamente dos respuestas plantean la pérdida de la privacidad y la seguridad como un riesgo: «Puede que con la inteligencia artificial se empiece a saber 4

El subrayado es mío.

– 58 –

demasiado de nosotros y así se podría vulnerar la privacidad». Una respuesta hace alusión a la necesidad de asignar códigos éticos a las inteligencias artificiales. Acerca de las preguntas relacionadas con su interés, exposición y exploración en el tema, la mayoría de los jóvenes entrevistados respondió que la IA les interesa bastante o mucho, pero no les han hablado o no saben si les han hablado del tema en la escuela y no han leído o han leído muy poco sobre IA. Sobre las carreras asociadas al estudio de la IA, predominan respuestas relacionadas con algún tipo de ingeniería (robótica, mecatrónica, sistemas, computación). Solamente hay cuatro referencias a las matemáticas, las ciencias de datos y el aprendizaje de máquinas. Cuatro mencionan psicología/ neurología, dos medicina y hay una mención a cine, fotografía y filosofía. No aparecen respuestas asociadas con la lingüística. Diez responden que no saben. Consideraciones finales A partir de los imaginarios que construyen las juventudes, podemos trazar líneas de investigación y acción sobre cómo atender sus expectativas, intereses y preocupaciones. El imaginario de un futuro dominado por las máquinas inteligentes puede resultar descorazonador. Conocer los alcances reales de los sistemas de IA, sus limitaciones, sus riesgos y las implicaciones para sus vidas, puede contribuir a desarrollar una mayor agencia que permita a las juventudes tomar decisiones informadas y participar en el debate. Es importante desarrollar acciones e iniciativas educativas y de formación de jóvenes sobre este ámbito, que permitan indagar y abordar de qué manera los sistemas de IA se encuentran presentes en su cotidianidad y cuáles son las potenciales repercusiones en sus vidas. El desarrollo de sistemas inteligentes debe pensarse principalmente frente a los problemas medioambientales, de salud, educación, disminución de la pobreza, incremento del empleo y crecimiento económico. Deben fomentarse políticas a nivel nacional y regional que nos permitan participar en el debate, atendiendo a las particularidades de los contextos situados. Por ello es relevante no sólo trabajar en torno a las oportunidades que nos brindan los sistemas de inteligencia artificial, sino también sobre los potenciales riesgos y desafíos y, sobre

– 59 –

todo, tomar acciones para que esta industria, en muchos casos basada en la lógica extractivista de los datos, no haga de las juventudes el objeto de sus intereses, sin tomar en cuenta su bienestar general y desarrollo personal y social. Referencias bibliográficas Augé, M. (1999). De lo imaginario a lo «ficcional local». Maguaré, (14), pp. 5-18. Dastin, J. (Octubre 9, 2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Recuperado de . Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press. IDC (2018). Worldwide Semiannual Artificial Intelligence Systems Spending Guide. Recuperado de . IBM. (Octubre 11, 2018). IBM contribuye a la reinvención de la fuerza de trabajo en América Latina, beneficiando a más de 370.000 estudiantes con acceso a conocimiento en IA, Cloud y Blockchain. Recuperado de . Noble, S. U. (2018). Algorithms of Oppression: How search engines reinforce racism. New York: NYU Press. O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. New York: Broadway Books. Ricaurte, P. (2018). Jóvenes y cultura digital: abordajes críticos desde América Latina. Chasqui 1390-1079. (137). Schäfer, M. T. & Van Es, K. (Eds.) (2017). The datafied society: Studying culture through data. Amsterdam University Press. The Economist (2018). Who’s ready for the coming wage of automation? Automation Readiness Index. Recuperado de .

– 60 –

Inteligencia artificial y dinámicas de inclusión/ exclusión de las juventudes

Presentación de la temática lionel brossi, universidad de chile tomás dodds, universidad de leiden

Introducción La relación entre los progresivos avances de las infraestructuras tecnológicas y la inclusión social de niños, jóvenes y adolescentes en la región latinoamericana es un debate que está cada vez más presente durante el diseño de políticas públicas. En particular, los temas sobre inteligencia artificial aparecen permanentemente en las discusiones públicas y políticas, así como también en las conversaciones privadas de los usuarios. Lo anterior es de esperar si tenemos en cuenta que las nuevas tecnologías han contribuido a democratizar el acceso a datos e información mediante mecanismos de transparencia, una mayor disponibilidad de contenidos educativos y culturales, el acceso a servicios de salud, el control ciudadano sobre sistemas públicos y políticos, entre muchos otros. Pero también es cierto que estas tecnologías traen consigo enormes peligros en términos de privacidad, seguridad y bienestar de sus usuarios. A esto se suma la concentración de poder en manos de unas pocas empresas tecnológicas o, como lo hemos visto en los últimos tiempos, la aparición de mecanismos a través de los cuales se han alterado procesos democráticos tradicionales. En este contexto, la pregunta sobre cómo lograr que la inteligencia artificial (IA) contribuya con los esfuerzos para generar una sociedad más inclusiva en América Latina se encuentra todavía en un proceso temprano de discusión y más aún si el foco está puesto en las juventudes. La importancia de estudiar el progreso tecnológico y las diversas formas de inclusión y exclusión que se pueden generar a partir del desarrollo de la inteligencia artificial y su incidencia en distintos aspectos de la vida cotidiana de las juventudes, apunta a comprender

– 63 –

de qué manera estas tecnologías disruptivas impactan la vida de los jóvenes que tienen acceso a ellas y especialmente aquellos que no. La necesidad de estudiar la infraestructura tecnológica, en donde la inteligencia artificial se ubica y expande, está dada porque las infraestructuras son, esencialmente, invisibles para sus usuarios. La negociación y la construcción de las infraestructuras tecnológicas es algo que los actores sociales no siempre pueden ver o prever. Por tanto, los usuarios coexisten desprevenidos de los procesos que se llevan a cabo y que tienen, tarde o temprano, un impacto significativo en su desarrollo personal y profesional. Es por ello que los capítulos que se presentan en esta sección pretenden ser un punto de inicio para pensar y debatir sobre las dinámicas de inclusión/exclusión social de las juventudes que se generan en nuestra región, a partir del desarrollo, implementación y uso de sistemas algorítmicos. Mediante de diversos casos, experiencias y estudios, esta sección propone interrogar de qué manera las infraestructuras tecnológicas y sus constantes cambios condicionan las relaciones sociales de sus usuarios, así como las oportunidades de éstos para alcanzar un pleno desarrollo político-cultural e incentivar la participación social. Es decir, entendemos a las infraestructuras tecnológicas como un proceso en donde lo social y lo técnico están indivisiblemente entrelazados. Más aún, creemos que sería un grave error descuidar las infraestructuras tecnológicas en la discusión sobre el desarrollo político y cultural de los usuarios. El capítulo de Denise Dajles se enfoca en las oportunidades y beneficios que nuevas tecnologías basadas en sistemas inteligentes pueden aportar a los usuarios que sufren enfermedades neurológicas degenerativas como la esclerosis lateral amiotrófica (ELA). Dajles muestra distintos ejemplos de estudiantes y académicos costarricenses que durante años han trabajado para poner a la inteligencia artificial al servicio de pacientes con discapacidades neuronales. Por otro lado, Mónica Bonilla y Álvaro Crovo reflexionan sobre cómo evitar que los sesgos y los prejuicios del mundo análogo se repliquen en el ecosistema digital en donde habitan los jóvenes latinoamericanos. Para los autores, es necesario que reconozcamos las consecuencias a corto y largo plazo que tendrá la baja tasa de

– 64 –

alfabetización digital en nuestra región; ¿hay una responsabilidad ética que los generadores de políticas educativas están descuidando en América Latina? En la misma línea, Juliana Rocha Rueda y Armando Guío Español proponen en su capítulo una serie de medidas para que las entidades que desarrollan nuevas tecnologías no violen los derechos de menores de edad: ¿De qué manera los sectores que utilizan herramientas asociadas a la inteligencia artificial están salvaguardando el interés superior de los niños, niñas y adolescentes en la región? Emplazado en el caso colombiano, este capítulo sugiere líneas de acción para entidades regulatorias y autoridades dedicadas a la protección de datos en Latinoamérica que actualmente se esfuerzan en promover procedimientos que resguarden la seguridad de los usuarios menores de edad. Por último, el capítulo de Marco Jaramillo pone el foco en la relación entre inteligencia artificial y las narraciones en videojuegos, para combatir la exclusión social de los jóvenes en América Latina. Basado en una perspectiva histórica que entiende a los videojuegos como un espacio de cuestionamiento e imaginación, Jaramillo analiza de qué manera la inteligencia artificial que se ubica en la base de la programación de videojuegos contemporáneos puede ser utilizada como una herramienta para combatir tanto exclusiones intergeneracionales como intra-generacionales. A continuación revisamos algunos conceptos que creemos son claves para aproximarse críticamente a los capítulos y temas que componen esta sección. El sesgo de los algoritmos Tal vez uno de los desafíos más importantes en la relación entre inclusión social e inteligencia artificial es el sesgo (o bias en inglés) en la composición de los algoritmos que estructuran el desarrollo de las tecnologías. Este sesgo se puede expresar, aunque no exclusivamente, en los supuestos que existen detrás de la creación de algoritmos, en el impacto de la programación neurolingüística de procesamiento de lenguaje natural y en la selección de los datos utilizados para la creación de algoritmos. Por eso, más que cualquier otra cosa, las posibles formas de discriminación que se pueden manifestar a través

– 65 –

del sesgo de los algoritmos es una cuestión que debe ser abordada desde una perspectiva ético-social (Hajian et al., 2016). En temas de género, por ejemplo, Lambrecht y Tucker hicieron el seguimiento de una publicidad en línea que promocionaba oportunidades de trabajo en los campos de ciencia, tecnología, ingeniería y matemática (STEM, por sus siglas en inglés). La publicidad, que aparecería en diversas plataformas digitales, había sido diseñada género neutro, justamente para evitar cualquier tipo de discriminación. Sin embargo, los datos recolectados indican que menos mujeres que hombres vieron el avisaje. Esto se explica porque las mujeres jóvenes son, demográficamente, un público más caro en términos de avisaje que los hombres. Por lo tanto, el algoritmo detrás de la difusión de la publicidad simplemente optimizó en relación a los costos y beneficios y mostró el mensaje a menos mujeres. Así, a pesar de que el diseño y contenido del mensaje había sido pensando sin ningún género particular como objetivo, el algoritmo empleado discriminó privilegiando un público masculino por sobre uno femenino. Aunque actualmente existen esfuerzos para reducir el sesgo de género en los algoritmos (ver Bolukbasi et al., 2016), todavía es posible observar cómo las lógicas que se expresan en la infraestructura tecnológica replican ciertos imaginarios y estereotipos sociales, incluso cuando los creadores del mensaje tienen como objetivo evitar dichas prácticas. Lo anterior nos podría llevar a pensar que independiente de la intención de los emisores del mensaje, son las características propias de las plataformas tecnológicas las que determinan el resultado final de la comunicación. Y son justamente estas estructuras de funcionamiento invisibles a los usuarios las que producirían en múltiples plataformas las mismas ideas de exclusión social. Algo similar sucede en temas de discriminación racial. La académica de la Universidad de Harvard Latanya Sweeney (2013) demostró que al buscar nombres típicamente asociados a la población afroamericana (black-sounding names, como DeShawn, Darnell y Jermaine), el buscador de Google tiene más probabilidades de mostrar publicidades promocionando buscadores de antecedentes criminales, que si el nombre está asociado a la población blanca (con nombres como Geoffrey, Jill y Emma). Ahora bien, Google se defendió a través de un comunicado público asegurando que «AdWords no realiza perfiles

– 66 –

raciales de ninguna manera». Sin embargo, es difícil adivinar qué sucede dentro de la caja negra que son los algoritmos de Google. Los resultados de Sweeney son indicativos de un sesgo racial en las publicidades promocionadas en el sitio. El sesgo en los algoritmos parece reforzar la idea de que no podemos pensar sobre la inteligencia artificial meramente como un desarrollo tecnológico material. Más bien, es necesario reconocer cuáles son las relaciones sociales y culturales que estas nuevas tecnologías pueden estar produciendo y reproduciendo, exponiendo a sus usuarios rutinariamente a sesgos discriminatorios. La socialización de la inteligencia artificial Los capítulos que presentamos a continuación están enmarcados en un contexto en donde la inteligencia artificial ya ha penetrado en diferentes capas de la vida cotidiana de sus usuarios. Varios de estos cambios han sucedido inadvertidamente, transformando radicalmente la infraestructura de algunos de los procesos sociales más mundanos. Los robots sociales o de asistencia sanitaria, los asistentes personales virtuales, los automóviles autodirigidos, así como los algoritmos que hoy se usan durante los procesos de reclutamiento para empleos, para la admisión en las universidades y la difusión de noticias, son ya procesos comunes en sociedades contemporáneas. Sin embargo, la rutinización y normalización de estas herramientas son procesos que requieren ser críticamente estudiados. Por ejemplo, Rosenblat, Kneese y Boyd (2014) revisan softwares que se han lanzado recientemente al mercado para corregir algunos problemas durante el proceso de contratación de empleados. Algunos algoritmos pueden, por ejemplo, privilegiar el sexo de los candidatos dado el número total de empleados para así propiciar un ambiente más balanceado dentro de una empresa y corregir posibles sesgos presentes en los departamentos de recursos humanos. Empero, los autores aseguran que estas «correcciones rápidas» podrían potencialmente transformarse en desincentivos para observar críticamente cuál es el problema que existe dentro de una determinada compañía. Es decir, procesos continuos de contratación discriminatoria son expresiones o síntomas de un problema estructural que un algoritmo de contratación diversa no necesariamente puede arreglar. Lo anterior indica que, al menos

– 67 –

por ahora, la capacidad de socialización de las herramientas de inteligencia artificial está limitada por las estructuras que componen sus plataformas. Algo similar sucede con las tecnologías de los automóviles autodirigidos. Quienes son más optimistas aseguran que en un futuro los autos que se manejan solos podrían llegar a salvar miles de vidas evitando accidentes en carreteras. Pero por ahora, los recientes (y fallidos) esfuerzos de Google, Uber y Tesla demuestran que dicha tecnología no está lista para integrarse a la vida cotidiana de los usuarios. La promesa de que algún día los conductores no tendrán que mirar el camino aún no llega. Por ahora debemos mantener los ojos al frente. Y es que por tentadoras que parezcan las promesas publicitarias que acompañan a las nuevas tecnologías de la inteligencia artificial, las capacidades estructurales de dichas tecnologías siguen en un estado de prueba. Por eso deberíamos mirar con cautela la integración y socialización de la inteligencia artificial en la vida cotidiana de sus usuarios. Lo anterior, sin embargo, no pretende negar los posibles beneficios que pueda tener la utilización de nuevas tecnologías relacionadas a la inteligencia artificial. Tal vez uno de los casos más emblemáticos en este sentido es el del uso de robots para el tratamiento de personas con autismo. Van Straten et al. (2017), por ejemplo, estudia cómo robots con apariencias y sonidos que emulan a un ser humano tienen mejores resultados en las interacciones con niños con autismo que sus contrapartes sin características antropomórficas. En este estudio, la interacción con robots Nao incrementó la felicidad y la capacidad de colaboración en determinadas actividades de los niños que participaron en el proyecto. De la misma manera, otros estudios han señalado las potenciales capacidades cognitivas que la relación humano-robot puede llegar a tener durante la elaboración de ciertas tareas cognitivas (Kim et al., 2017).

– 68 –

Inclusión y exclusión: ¿Qué rol deben y pueden jugar las nuevas tecnologías? Finalmente, esta sección también busca arrojar algunas luces sobre la percepción que los propios usuarios tienen sobre los sistemas de IA y los usos que les están dando incluso si estos difieren de la idea original para la cual el sistema fue diseñado. Es decir, qué tienen que expresar los usuarios, incluidos aquellos que pertenecen a comunidades vulnerables y/o marginadas, sobre las oportunidades y desafíos que supone, desde sus contextos situados y experiencias, la inclusión de la IA en sus rutinas. Los capítulos de esta sección pretenden ser justamente un primer acercamiento a estas preguntas. Referencias bibliográficas Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V. & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. En Advances in Neural Information Processing Systems (pp. 43494357). Kim, M., Kwon, T. & Kim, K. (2018). Can Human-Robot Interaction Promote the Same Depth of Social Information Processing as Human-Human Interaction? International Journal of Social Robotics, 10 (1), 33-42. Lambrecht, A. & Tucker, C. E. (2018). Algorithmic bias? An empirical study into apparent gender-based discrimination in the display of STEM career ads. Recuperado de: . Lampland, M. & Star, S. L. (Eds.) (2009). Standards and their stories: How quantifying, classifying, and formalizing practices shape everyday life. Cornell University Press. Rosenblat, A., Kneese, T. & Boyd, D. (2014). Networked Employment Discrimination. Open Society Foundations’ Future of Work Commissioned Research Papers. Recuperado de: . Straten, C. L., Smeekens, I., Barakova, E., Glennon, J., Buitelaar, J. & Chen, A. (2018). Effects of robots’ intonation and bodily appearance on robot-mediated communicative treatment outcomes for children with autism spectrum disorder. Personal and Ubiquitous Computing, 22 (2), 379-390. Sweeney, L. (2013). Discrimination in online ad delivery. Queue, 11 (3), 10.

– 69 –

El interés superior de los niños, niñas y adolescentes en el diseño de la inteligencia artificial juliana rocha rueda, universidad de los andes, colombia armando guío español, universidad de los andes, colombia

La inteligencia artificial es hoy un tema relevante en distintos sectores. Sin embargo, la discusión sobre la forma en que esta tecnología afectará los derechos de los niños, niñas y adolescentes todavía requiere mayores consideraciones. Uno de los elementos que se sugiere para proteger a esta población es la promoción del interés superior de los niños, niñas y adolescentes como un elemento que garantice su privacidad en el desarrollo de esta tecnología y en el uso de su información. No obstante, entender qué es ese interés y cómo se protege genera una serie de inquietudes que deseamos abordar. Por lo tanto, en este ensayo ahondaremos en puntos sustanciales: (i) la definición del interés superior de los niños y niñas en instrumentos internacionales y en el caso particular de Colombia; y (ii) las implicaciones del concepto del interés superior de niños, niñas y adolescentes para el desarrollo de nuevas tecnologías que requieran los datos personales de esta población, tales como la inteligencia artificial. Finalmente, propondremos algunas herramientas metodológicas que pueden servir para que de la inteligencia artificial sea incluyente frente a las necesidades de los niños, niñas y adolescentes. Definiendo el interés superior de los niños, niñas y adolescentes El interés superior de los niños, niñas y adolescentes es un concepto que ha estado presente en diversos instrumentos internacionales y nacionales, entre los que se encuentran la Declaración de los Derechos del Niño de 1959 y la Convención sobre la eliminación de todas las formas de discriminación contra la mujer de 1965. Únicamente hasta la Convención sobre los Derechos del Niño (CDN) de 1989, el interés superior fue reconocido como un derecho de los niños, niñas

– 71 –

y adolescentes. De acuerdo con el Parágrafo 1 del Artículo 3 de la Convención, los niños, niñas y adolescentes tienen derecho a que su interés superior sea considerado de manera primordial en cualquier decisión relacionada con ellos, tomada por entidades públicas o privadas, incluyendo órganos legislativos, judiciales, administrativos o entidades de bienestar social. El interés superior de los niños, niñas y adolescentes ha sido utilizado y definido en múltiples oportunidades por diferentes organismo tanto nacionales como internacionales, dado que la CDN no contiene una definición de interés superior (López-Contreras, 2015). Esto a su vez ha generado que el término sea amplio y vago, por lo cual ha recibido críticas desde su concepción (Alston y Gilmour-Walsh, 1996; LópezContreras, 2015). Como consecuencia, el interés superior de los niños y niñas ha sido utilizado para resolver casos y tomar decisiones de manera arbitraria, con base en criterios subjetivos y que pertenecen únicamente al ente o persona que está tomando la decisión en ese caso particular (López-Contreras, 2015). La importancia del interés superior como consideración primordial en las decisiones que afectan a niños y niñas ha propiciado una gran variedad de aproximaciones con respecto a su aplicación (Alston y Gilmour-Walsh, 1996: 1). Atendiendo a esta ausencia de una definición establecida, con un contenido que pueda abarcar diferentes situaciones y teniendo en cuenta que la flexibilidad de aplicación del concepto puede llevar a abusos y arbitrariedades (Comité de los Derechos del Niño, 2013: 10), el Comité de los Derechos del Niño, entidad encargada de vigilar el cumplimiento de las obligaciones de los estados parte de la CDN, conforme al Artículo 43, redactó la Observación General N° 14 (2013) sobre el derecho del niño a que su interés superior sea una consideración primordial (Artículo 3, Párrafo 1). De acuerdo con el Comité, el interés superior es un concepto que tiene tres dimensiones: (i) un derecho sustantivo, tanto colectivo como individual; (ii) un principio jurídico interpretativo fundamental, y (iii) una norma de procedimiento (Comité de los Derechos del Niño, 2013). Considerando que el interés superior se debe evaluar caso por caso, la Observación General N° 14 proporciona elementos que ayudan a determinar este interés de manera puntual, y no pretende predeterminar cuál es este interés superior en situaciones y momentos

– 72 –

concretos (Comité de los Derechos del Niño, 2013: 5). Por lo tanto, el interés superior del niño se debe evaluar y determinar «en función de las circunstancias específicas de cada niño [o grupo de niños] en concreto» (Comité de los Derechos del Niño, 2013: 9). Debido a que el interés superior del niño es primordial en cualquier decisión, cuando los derechos de un niño o un grupo de niños entren en conflicto con los derechos de otras personas, se debe dar más importancia a los derechos de los niños y a su interés superior (Comité de los Derechos del Niño, 2013: 11). Ahora bien, al momento de establecer cuál es el interés superior de un niño o una niña en una situación particular, se debe prestar especial atención a la opinión del niño o niña, siguiendo el Artículo 12 de la CDN y la metodología establecida por el Comité de los Derechos del Niño en su Observación General N° 12 (Comité de los Derechos del Niño, 2013: 11). En la Observación General N° 14 se detallan los pasos necesarios que se deben seguir para evaluar y determinar el interés superior del niño o niña (Comité de los Derechos del Niño, 2013: 12). El primer paso es saber cuáles son los elementos pertinentes, dependiendo del contexto concreto, dotarlos de contenido y ponderar su importancia (Comité de los Derechos del Niño, 2013: 12). El segundo paso es llevar a cabo un procedimiento, previamente determinado, donde se cumplan las garantías jurídicas y se aplique de forma adecuada el derecho (Comité de los Derechos del Niño, 2013: 12). El Comité de los Derechos del Niño fijó una lista con elementos que deben ser tenidos en cuenta y que se deben llenar de contenido en cada caso, conforme al primer paso. Esta lista no es exhaustiva ni jerárquica, y pretende servir de orientación con cierto grado de flexibilidad, admitiendo que «el fin último del interés superior del niño debería ser garantizar su disfrute pleno y efectivo de los derechos reconocidos en la Convención y su desarrollo holístico» (Comité de los Derechos del Niño, 2013: 13). Estos elementos son: (i) la opinión del niño o niña, teniendo en cuenta que su edad no debe impedir que exprese su opinión, ni reduce la importancia que debe concederse a sus opiniones para determinar el interés superior; (ii) la identidad del niño o niña, lo cual incluye características como sexo, orientación sexual, origen nacional, religión, creencias, identidad

– 73 –

cultural, personalidad, experiencia, pertenencia a grupos minoritarios, discapacidades, contextos sociales y culturales, presencia o ausencia de los padres y su relación con ellos; (iii) la preservación del entorno familiar y mantenimiento de las relaciones, en la medida de lo posible y siempre respetando la medida que mejor garantice los derechos del niño o niña, conforme al Artículo 9 de la CDN; (iv) el cuidado, la protección y la seguridad del niño o niña; (v) una posible situación de vulnerabilidad, como la pertenencia a un grupo minoritario, si es refugiado o solicitante de asilo, si es víctima de malos tratos, entre otros; (vi) el derecho a la salud y el estado de salud del niño o niña, exponiendo las ventajas de todos los tratamientos posibles frente a riesgos y efectos secundarios y considerando la opinión del niño en función de su edad y madurez, para lo cual debe proporcionársele información adecuada y apropiada, y (vii) el derecho del niño a la educación, de manera que se fomenten sus responsabilidades y pueda superar cualquier limitación impuesta por una situación de vulnerabilidad (Comité de los Derechos del Niño, 2013). En caso de que los elementos entren en conflicto, se deben ponderar para establecer la solución que mejor cumpla el interés superior del niño o niña. Por otra parte, la Observación General N° 14 señala que debe tener un proceso por medio del cual se tomen decisiones que afecten a niños o niñas, para garantizar su interés superior. En primer lugar, los procesos deben garantizar la comunicación con los niños para asegurar su participación en el proceso. Esto implica informar al niño sobre el proceso y las posibles alternativas de soluciones o resultados. Además, si el niño tiene representación en el proceso, el representante está obligado a comunicar de forma precisa las opiniones del niño. Cuando se trata de un grupo de niños, se debe encontrar maneras de conocer la opinión de una muestra representativa de ellos. En segundo lugar, los hechos y el contexto deben ser determinados por profesionales capacitados que tengan las habilidades para realizar los procesos de fact-finding que sean necesarios, entrevistando al niño, sus familiares y quien sea necesario. En tercer lugar, es fundamental saber que la percepción del tiempo de los niños es diferente y que los procesos largos «tienen efectos particularmente adversos en la evolución de los niños» (Comité de los Derechos del Niño, 2013: 20). En cuarto lugar, los profesionales que llevan a cabo

– 74 –

el proceso de determinación y evaluación del interés superior deben estar adecuadamente capacitados e idealmente debe tratarse de un equipo multidisciplinario. Además, el niño tiene derecho a una representación letrada, es decir, debe contar con un abogado cuando sea sometido a un procedimiento judicial o administrativo, al final del cual se determine su interés superior. Otro elemento clave es que, como en cualquier proceso jurídico transparente, todas las decisiones deben estar motivadas, justificadas y explicadas, especialmente si la decisión se aparta del interés superior del niño o de su opinión. Adicionalmente, se debe evaluar el impacto de cada medida en los derechos del niño, con el fin de determinar la solución que mejor se ajuste a su interés superior. Por último, los ordenamientos jurídicos deben contar con mecanismos para examinar o revisar las decisiones, los cuales deben darse a conocer al niño, quien debe tener acceso directo a ellos o a través de un representante jurídico (Comité de los Derechos del Niño, 2013). En el caso de Colombia, el interés superior de los niños, niñas y adolescentes se encuentra establecido en el Artículo 9º del Código de la Infancia y la Adolescencia, y propone que: Se entiende por interés superior del niño, niña y adolescente el imperativo que obliga a todas las personas a garantizar la satisfacción integral y simultánea de todos sus Derechos Humanos, que son universales, prevalentes e interdependientes (Congreso de la República de Colombia, 2006).

La codificación del interés superior de los niños, niñas y adolescentes se encuentra directamente relacionada con la CDN y los principios destacados por el Comité de Derechos del Niño. Además, el concepto del interés superior ha sido desarrollado e interpretado ampliamente por la Corte Constitucional de Colombia en diversas sentencias. Este alto tribunal, siguiendo lo señalado en el CDN, ha destacado la importancia de hacer un análisis caso a caso al momento de analizar la protección del interés superior del menor, que es considerado como la realización de los derechos de los niños, niñas y adolescentes.

– 75 –

El interés superior del menor en el desarrollo de la inteligencia artificial Como se ha podido observar, el concepto de interés superior del menor conlleva una serie de implicaciones que no debe ser desconocida por los nuevos avances tecnológicos que requieran el uso de datos personales. Un caso claro de esto es el de la regulación colombiana sobre los datos personales, la cual incluyó este concepto de manera expresa: El tratamiento de datos personales de niños, niñas y adolescentes está prohibido, excepto cuando se trate de datos de naturaleza pública, de conformidad con lo establecido en el artículo 7 de la Ley 1581 de 2012 y cuando dicho tratamiento cumpla con los siguientes parámetros y requisitos: 1. Que responda y respete el interés superior de los niños, niñas y adolescentes. 2. Que se asegure el respeto de sus derechos fundamentales. Cumplidos los anteriores requisitos, el representante legal del niño, niña o adolescente otorgará la autorización previo ejercicio del menor de su derecho a ser escuchado, opinión que será valorada teniendo en cuenta la madurez, autonomía y capacidad para entender el asunto (…) (subrayado fuera del texto original) (Congreso de la República de Colombia, 2015).

Las implicaciones de esta norma son varias y creemos que tendrían un impacto en la regulación colombiana de datos personales y en otras que así lo incluyan. Como se puede observar, el uso de estos datos de menores está limitado a su interés superior, lo cual constituye un mandato claro para los diseñadores de algoritmos que utilicen esta información. El uso de algoritmos y técnicas de machine learning que utilicen datos de menores en la industria clínica, del entretenimiento y en la educación, entre otros, tendrá que cumplir con este requisito. La pregunta que puede surgir entre quienes participan en estas industrias y sectores es cuáles son las estrategias necesarias para asegurar el interés de las y los niños y jóvenes. Como se ha podido ver, definir esto resulta ser una tarea compleja, en especial en casos donde existen también otros intereses. El interés superior del menor se ha analizado caso a caso y por ende resulta difícil señalar ex ante los casos específicos en los que se garantiza o desconoce el interés superior del menor en el desarrollo de nuevas tecnologías.

– 76 –

Sin embargo, entidades regulatorias y autoridades de protección de datos alrededor del mundo y de Latinoamérica sí pueden promover la implementación de procedimientos que desde el diseño les permita concluir si en cada caso específico se está protegiendo los intereses de los niños, niñas y adolescentes (Danezis et al., 2014). Los diseñadores de algoritmos que requieran datos de niños, niñas y adolescentes tendrán que analizar el interés superior de esta población desde la etapa inicial de los diseños que elaboren. En este caso proponemos dos elementos que pueden ayudar en este objetivo: 1. Información transparente y comprensible sobre el tratamiento de datos Para garantizar el interés superior de las niñas, niños y adolescentes resulta esencial contar con su participación en el proceso de identificación de dicho interés superior. Por ende, el interés superior de esta población se garantiza desde que estas personas puedan entender cómo se utilizan sus datos personales en el diseño de la inteligencia artificial y logren entender las implicaciones de estas prácticas en su desarrollo y en su vida futura (National Initiative and Performance Directorate, 2017). Asimismo, es vital brindarles información completa y clara que les permita tener una verdadera opinión informada frente a los fines que persiguen estas tecnologías, especialmente en aquellos casos en que tengan la madurez para expresar su opinión frente al consentimiento que darán sus representantes. Si la información de estos menores va a ser utilizada para desarrollar algoritmos y otras tecnologías relacionadas con la inteligencia artificial, debe existir como mínimo información transparente y clara que les permita entender en qué consiste esto. Esta información debe ser además presentada de tal manera que los niños, niñas o adolescentes puedan entenderla. En ese sentido, no es suficiente contar con información transparente, sino que es fundamental que la misma sea comprensible y clara, especialmente para esta población. Esto requiere un esfuerzo en la manera en que se entregue la información y en la redacción que se utilice en los consentimientos y políticas de privacidad. El uso de medios interactivos que faciliten la comprensión

– 77 –

es recomendable y deseable. Varias autoridades como la ICO en el Reino Unido han promovido modelos interactivos para la presentación de consentimiento y políticas de privacidad, no sólo para menores sino también para los adultos (Information Commissioner’s Office,ICO). Si la información no se presenta de este modo, creemos que una autoridad de protección de datos estaría legitimada para considerar que el tratamiento de datos de niños, niñas y adolescentes ha sido dado con un consentimiento que no cumple con los requisitos legales y que por ende es violatorio de sus derechos. 2. Inclusión desde el diseño Cada vez más las autoridades mundiales confían en la privacidad por diseño como una herramienta que permite la protección de los datos personales desde un momento inicial. El Reglamento General de Protección de Datos, que entró en vigor en mayo de 2018, tiene éste como uno de sus pilares fundamentales para la protección de datos personales. En Latinoamérica todavía son necesarios esfuerzos en el uso de este tipo de herramientas dentro de la regulación (European Data Protection Supervisor, 2018). En Colombia, la privacidad por diseño hasta ahora ha sido promovida en una norma específica sobre el proyecto de identidad digital, conocido como carpeta ciudadana. El Decreto 1413 de 2017 señaló que el operador de esta carpeta estaba obligado a utilizar la privacidad por diseño en la estructuración del proyecto, sin que existan mayores lineamientos al respecto (Ministerio de Tecnologías de la Información y las Comunicaciones y Corporación Agencia Nacional de Gobierno Digital, 2018). De esta forma, el ámbito de aplicación de la privacidad por diseño todavía es limitado y específico. Más allá de la privacidad por diseño, consideramos que se debe ir un paso más allá para proteger los derechos de los niños, niñas y adolescentes de la región. El objetivo debe ser garantizar la inclusión de estos grupos no sólo en el diseño, sino en el tipo de información que es utilizado por estas tecnologías (Ashar y Cortesi, 2018). Es por ello que abogamos por incluirlos en el diseño y proponemos el concepto de inclusión por diseño. Esto les permitirá a los desarrolladores de algoritmos e inteligencia artificial tener en cuenta la opinión y necesidades de estos grupos con el fin de preservar el verdadero

– 78 –

interés superior de los niños, niñas y adolescentes en cada caso y sabiendo lo que significa este concepto en cada contexto específico. La inclusión por diseño debe basarse entonces en cuatro elementos básicos: 1. Identificar al grupo afectado: en este caso es necesario identificar al grupo de niños, niñas y adolescentes cuyos datos se están utilizando y aquellos que se verán impactados por el uso de esta tecnología. Si estamos en el escenario de utilizar algoritmos para seleccionar y analizar los mejores resultados del país en la asignatura de matemáticas entre comunidades indígenas de un país, debemos establecer qué niños hacen parte de esta medición y evaluación, con qué criterios se seleccionan y qué etnias o grupos poblacionales deben ser considerados en este proyecto (Burnaford, 2012). 2. Identificar a representantes de la comunidad y explicarles el proyecto: este primer paso obliga a los desarrolladores a invitar a representantes de los grupos identificados para que participen en el diseño y presenten sus comentarios e inquietudes. Juntos con ellos se debe definir el tipo de datos que se obtendrán y su sensibilidad, permitiéndoles expresar el valor que estos datos tienen dentro de sus comunidades y el impacto que pueden tener. Para un científico de datos, la obtención de información sobre los resultados de las evaluaciones de matemáticas de unos niños puede no ser problemática, pero para algunas comunidades puede considerarse algo absolutamente reservado que no compartirían sino en casos excepcionales. Por eso conocer la opinión de los menores y en especial de los adolescentes es algo que debe promoverse dentro del proceso de inclusión, entendiendo que son ellos quienes tienen que manifestar cuál es su interés superior. En este caso diferentes niveles de participación y de representación deben ser considerados, teniendo en cuenta la edad, experiencia y liderazgo dentro de la comunidad (Marcaletti y Riniolo, 2015).

Asimismo, en esta etapa se debe explicar a la comunidad en qué consistirá el proyecto y sus implicaciones en el uso de datos de menores. Por esto resulta tan importante tener información transparente y comprensible sobre lo que implica el uso de esta tecnología, como ya hemos señalado en este ensayo. 3. Acompañamiento en el diseño, implementación y evaluación: el acompañamiento de los representantes seleccionados debe darse en el diseño, implementación y evaluación de la tecnología que se está utilizando.

– 79 –

Sólo así se tendrá una inclusión comprensiva que abarque la totalidad del proceso, más que una inclusión esporádica y momentánea. Es claro que si la información de sus niños, niñas y adolescentes está siendo utilizada, estas comunidades están legitimadas para hacer seguimiento de la forma como estas tecnologías los está impactando y solicitar los cambios que sean pertinentes. 4. Definir el origen del algoritmo y las tecnologías ya diseñadas: si el algoritmo ya está diseñado no significa que la inclusión desde el diseño no sea relevante. Es esencial identificar el origen de la tecnología que se está utilizando y de los datos usados en su diseño inicial. Si es un algoritmo ya desarrollado es oportuno conocer con qué información ha sido entrenado, si estos datos afectarán los resultados que se obtengan en cierta comunidad o si incluyen prejuicios que puedan afectar a estas personas (Danks y London, 2017). Incluso es necesario determinar si el diseño de estos algoritmos fue incluyente y si tuvo en cuenta la diversidad de comunidades a la que podía dirigirse. Este proceso puede llevar a concluir que es necesario utilizar una tecnología que sí considere las características propias de esta comunidad y que permita ser más inclusiva.

Este proceso de inclusión de los menores y las comunidades a las que pertenecen puede ser dispendioso, pero se justifica porque busca la protección de sus derechos y su interés. De hecho, ya es una obligación legal en varios países latinoamericanos, por lo cuál no debe ser del todo extraño. Normas de protección de datos como la colombiana generan limitaciones en el uso de los datos de niños, niñas y adolescentes para garantizar sus derechos. En este caso proponemos una serie de medidas que permitirán a las entidades que desarrollen estas tecnologías utilizar estos datos sin preocuparse porque exista una violación de los derechos de estos menores, brindando una posibilidad para que distintas industrias y los mismos menores salgan beneficiados de este proceso. Estos procedimientos y herramientas al final garantizan algo que las normas y constituciones de varios países ya protegen de forma sustancial. La labor de las autoridades es fundamental en promover herramientas y procedimientos constructivos que permitan el desarrollo tecnológico sin sacrificar los derechos de los más débiles. Sin embargo, esto no es suficiente. Todo lo anterior demuestra la importancia de explicar a las comunidades y a los niños, niñas y adolescentes en qué consiste

– 80 –

esta tecnología, las oportunidades que ofrece y los riesgos para su privacidad y su libertad. Una vez que estos niños, niñas y adolescentes sean educados en estos temas, se facilitará la labor de las entidades que quieran utilizar estas tecnologías, dado que podrán interactuar con un grupo de personas más informado y así será posible desarrollar herramientas más complejas y elaboradas que la población podrá llegar a comprender, mientras se utilizan estas tecnologías para garantizar el interés superior de los niños, niñas y adolescentes. Por lo tanto, la educación juega un rol esencial en enseñar a cada ciudadano en qué consiste la inteligencia artificial y cómo impactará su vida y su futuro (Kirkland y Rexford, 2018). Sólo así se obtendrá una mayor redistribución de los beneficios que trae la inteligencia artificial y no solamente se verán beneficiadas las industrias que utilizan y promueven esta tecnología, sino también las personas que podrán decidir sobre el uso de su información para el desarrollo de esta tecnología y que no requieren que otros decidan por ellas. Referencias bibliográficas Alston, P. & Gilmour-Walsh, B. (1996). The Best Interests of the Child: Towards a synthesis of children’s rights and cultural values. In International Child Development Centre & UNICEF, Innocenti Studies. Florence. Ashar, A. & Cortesi, S. (2018, febrero 22). Harvard Business School. Recuperado de Why Inclusion Matters for the Future of Artificial Intelligence: . Burnaford, R. M. (2012). Race, ethnicity, and exclusion in group identity. Graduate Theses and Dissertations, University of South Florida Scholar Commons. Comité de los Derechos del Niño (29 de mayo de 2013). Observación general N° 14 (2013) sobre el derecho del niño a que su interés superior sea una consideración primordial (artículo 3, párrafo 1). Naciones Unidas. Congreso de la República de Colombia (2006). Instituto Colombiano de Bienestar Familiar (ICBF). Recuperado de Ley 1098 de 2006: . Congreso de la República de Colombia (2015). Ministerio de Comercio, Industria y Turismo. Recuperado de Capítulo 25, Decreto 1074 de 2015: . Danezis, G., Domingo-Ferrer, J., Hansen, M., Hoepman, J.-H., Le Métayer, D., Tirtea, R. & Schiffner, S. (2014, december). Privacy and Data Protection by

– 81 –

Design – from policy to engineering. European Union Agency for Network and Information Security (ENISA). Danks, D. & London, A. J. (2017). Algorithmic Bias in Autonomous Systems. Proceedings of the 26th International Joint Conference on Artificial Intelligence (IJCAI 2017) forthcoming. European Data Protection Supervisor (2018, mayo 31). European Data Protection Supervisor. Recuperado de Opinion 5/2018, Preliminary Opinion on privacy by design: . Information Commissioner’s Office (ICO) (n.d.). Information Commissioner’s Office. Recuperado de ICO Privacy notice: . Kirkland, R. & Rexford, J. (2018, april). McKinsey & Company. Recuperado de The role of education in AI (and vice versa): . López-Contreras, R. E. (2015). Interés superior de los niños y niñas: Definición y contenido. Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 51-70. Marcaletti, F. & Riniolo, V. (2015). A Participatory Governance Model Towards the Inclusion of Ethnic Minorities. An Action Research Experience in Italy. Revue Interventions économiques. Ministerio de Tecnologías de la Información y las Comunicaciones y Corporación Agencia Nacional de Gobierno Digital (2018, agosto). MinTic. Recuperado de Manual de Condiciones, Servicio de Carpeta Ciudadana: . National Initiative and Performance Directorate (2017). NSW Department of Education. Recuperado de EDUCATION: FUTURE FRONTIERS, The implications of AI, automation and 21st century skills needs: .

– 82 –

Sistemas inteligentes que ofrecen soluciones para el mejoramiento de la calidad de vida de personas jóvenes denise dajles kellermann, universidad de costa rica

Cada vez es más común el uso de robots para ayudar a las personas en sus tareas diarias. Esto es de particular importancia para quienes presentan movilidad reducida por sufrir enfermedades neurológicas degenerativas como la esclerosis lateral amiotrófica (ELA), o para quienes han sufrido lesiones que comprometen su movilidad. El desarrollo de sistemas inteligentes basados en inteligencia artificial capaces de aprender patrones de uso, así como de utilizar señales del usuario para tomar decisiones, permiten ofrecer a estas personas maneras de interactuar con su entorno, haciendo que el robot realice tareas sencillas para ellos, lo cual podría permitirles recuperar en parte su independencia. ¿Cuánto mejoraría la calidad de vida de las y los jóvenes en estado de tetraplejia si pudieran experimentar los sonidos y paisajes del jardín, moverse por su casa, sentarse a la mesa con su familia y participar de las conversaciones? Aún no se cuenta con tecnologías o medicamentos que puedan restaurarles las funciones motoras perdidas, pero sí contamos con tecnologías que les permiten experimentar estas experiencias por medio de realidad virtual y a través de telepresencia robótica, con base en algoritmos de inteligencia artificial. Para los más jóvenes, la interacción con computadoras y robots es por lo general intuitiva y natural, haciendo que su uso sea cada vez más común en las funciones diarias. Esto permite que las personas con ciertos grados de discapacidad puedan sentirse cómodas e integradas a la sociedad con su uso. ¿Cómo funcionan estos sistemas? Se basan en algoritmos capaces de analizar cantidades inmensas de datos para tomar decisiones de manera autónoma, pero lo más importante es que esas decisiones sean las correctas y las esperadas. – 83 –

Estos sistemas inteligentes, basados en algoritmos avanzados de inteligencia artificial, utilizan señales específicas que el usuario proporciona para generar comandos predeterminados en una computadora y/o robot. De esta manera, el sistema toma una señal, la traduce a un código binario para ser analizada por una computadora y la compara con toda la información disponible en su base de datos, buscando características muy específicas dentro de las señales para poder determinar cuál es la intención del usuario y así generar un comando deseado. De este modo, una simple y pequeña señal puede convertirse en cualquier cosa, siempre y cuando el algoritmo sea capaz de traducirlo, procesarlo e identificar sus características específicas. A continuación veremos algunos ejemplos de este tipo de sistemas inteligentes desarrollados por estudiantes y profesores universitarios en Costa Rica, que están siendo diseñados para mejorar la calidad de vida de las personas alrededor del mundo. Sistemas de inteligencia artificial enfocados en rastreo y predicción El primer ejemplo de sistemas inteligentes con aplicaciones reales, basados en mecanismos de inteligencia artificial, son los sistemas de rastreo de jugadores de fútbol, deporte muy popular en América Latina y que se ha convertido no sólo en una gran pasión de muchos, sino además en un negocio muy lucrativo. Los grandes clubes del mundo buscan sistemas que, basándose en las filmaciones de los entrenamientos y partidos, sean capaces de identificar a cada jugador en la cancha y rastrear sus movimientos durante todo el entrenamiento/partido. Al rastrearlo, el sistema puede mostrarles con claridad a sus entrenadores y al mismo jugador cuánto corrió, cómo se movió, cómo defiende, cómo ataca, entre otras cosas. Con esta información se pueden generar estrategias para mejorar los movimientos de cada futbolista dentro de la cancha, saber cómo se mueven los jugadores oponentes y poder hacer estrategias defensivas y ofensivas más acertadas. Para lograr estos rastreos se utilizan distintos sistemas, como por ejemplo poner marcadores en los jugadores para que sean detectados por las cámaras en el estadio. Sin embargo, la FIFA (Fédération Internationale de Football Association) únicamente permite poner marcadores en los jugadores del equipo local, imposibilitando el uso

– 84 –

de estos sistemas para rastrear a los futbolistas del equipo contrario; además, los marcadores pueden salirse del área de cobertura de las cámaras en ciertos momentos del partido, perdiendo el rastro del jugador. Para solucionar estos inconvenientes se desarrollaron algoritmos capaces de identificar a los jugadores, utilizando grabaciones de los partidos (Siles, 2015). Al ver una grabación sabemos que un futbolista determinado no aparecerá en todas las tomas, por lo que algo ingenioso de estos sistemas es que puede intuir la trayectoria que hizo el jugador para pasar de la posición en la toma 1 a la posición en la toma 2 y el tiempo que le tomó hacerlo. Adicionalmente, entre más tomas acumule el sistema, más va aprendiendo de los movimientos del jugador (velocidad promedio, si se mueve por los lados o por el centro, cuántos defensores tiene a su alrededor, si tiene o no la bola, entre otros) y va logrando mejorar sus predicciones de los movimientos. En la Figura 1 se puede observar un ejemplo de estos sistemas.

figura 1: rastreo automático de jugadores de fútbol (siles, 2015).

– 85 –

Estos asombrosos sistemas de rastreo pueden aplicarse en muchos otros campos. Uno de estos que tiene un gran impacto para la salud pública es el rastreo de células para la identificación de tumores cancerígenos. Al tomar una biopsia, ésta se envía a un patólogo para que la estudie e identifique, definiendo si es un tumor cancerígeno, de qué tipo y en qué grado. Esto presenta algunos problemas prácticos, ya que la cantidad de muestras que un patólogo puede revisar en un día es limitada. Al utilizar algoritmos de inteligencia artificial muy similares a los del rastreo de futbolistas se pueden localizar las distintas células en la imagen de microscopio de una biopsia e identificarlas con base en sistemas predictivos (ver Figura 2). ¿Cómo funcionan estos sistemas? Lo primero es exponer a los algoritmos a bases de datos gigantes que contengan imágenes de biopsias que hayan sido analizadas y anotadas por expertos, es decir, que tengan señaladas qué es lo que identifica a un tumor como maligno. Estas bases de datos van creciendo de manera exponencial con cada nueva imagen con que se alimenta al sistema, volviéndolo así cada vez más «inteligente»; entre más datos acumula el sistema se van logrando generar mejores predicciones. Una vez que se le muestra al algoritmo una nueva imagen, éste la descompone en sus distintos píxeles en busca de patrones que se parezcan a lo que tienen las imágenes de su banco de datos. Por ejemplo, busca dos núcleos que estén fusionados o células en mitosis (división celular) acelerada o antes de tiempo. En general, busca cambios en las células y los componentes de la imagen que concuerden con otras imágenes donde ya se tiene un diagnóstico. Si las similitudes encontradas cumplen con suficientes parámetros, entonces el sistema genera una predicción de diagnóstico. Estas comparaciones se realizan en pocos segundos, alcanzando niveles de acierto muy elevados (Calderón, 2015). Ahora bien, además de poder predecir si la biopsia presenta un tumor cancerígeno y el tipo al cual pertenece, el algoritmo puede buscar en otras bases de datos los tratamientos que se han utilizado para combatir este tipo de padecimientos y ver cuáles han tenido un mayor índice de éxito. De esta manera tener tratamientos más eficaces y personalizados, lo cual lleva a una mayor probabilidad de cura.

– 86 –

figura 2: rastreo automatizado de células (calderón, 2015).

Al ser ya capaces de identificar patrones malignos en imágenes de microscopio de biopsias de tumores, ¿qué más podríamos hacer? ¿Qué tal desarrollar tratamientos personalizados para tratar la dolencia específica del paciente? Esto es lo que se vislumbra como el futuro de la medicina. Utilizando sistemas inteligentes, el siguiente paso está siendo desarrollado en estos momentos, al predecir la forma tridimensional que tomará una proteína con base en el código de ARN mensajero (básicamente fragmentos del código genético). Conociendo la forma de la proteína se puede definir si las mutaciones presentadas tendrán un efecto en el acople de esas proteínas con su entorno, pero todavía más importante, ayudará a diseñar fármacos que se acoplen perfectamente a esas proteínas, asegurando el efecto deseado. Con sistemas computacionales de alto rendimiento, estas predicciones pueden hacerse en cuestión de minutos. Recordemos que estamos viviendo en la Era de la Información, por lo que estamos generando y manejando cantidades inimaginables de datos, los cuales pueden ser procesados por sistemas inteligentes para que tomen sentido y así el mismo sistema pueda decidir qué hacer con esos datos, tal y como traducirlos en una imagen 3D de una proteína. Es por esto que la medicina que conocerán nuestros hijos y nietos será muy diferente a la que conocemos hoy en día.

– 87 –

Sistemas de inteligencia artificial basados en análisis de señales Otros tipos de algoritmos se basan en recibir señales y analizarlas en tiempo real para producir distintos tipos de comandos. En este campo podemos pensar en sistemas de captura de movimiento que, por medio de sensores infrarrojos captados por cámaras, pueden generar modelos que imiten el movimiento de la persona con una muy alta precisión. Esta es la manera en que actualmente se hacen los videojuegos que les encantan a niños y grandes, y que al verlos nos sorprende el grado de realidad que presentan. Los desarrolladores de los videojuegos graban a los jugadores con estos sistemas y luego los algoritmos traducen estas grabaciones y las sobreponen en los dibujos animados de estos mismos jugadores. Con suficiente cantidad de movimientos grabados, los sistemas pueden predecir cómo se verá el jugador en casi cualquier movimiento, haciendo que los juegos se vean sumamente reales. Además de generar videojuegos capturando los movimientos de una persona, estos sistemas se están proponiendo para usarse en la teleoperación de robots humanoides, como lo es el robot NAO, de manera que el robot se mueva imitando el movimiento capturado de un humano (Nunez, 2018) (ver Figura 3). Estos sistemas pueden ser de alta utilidad en situaciones de emergencia, en donde en vez de enviar humanos a la zona de desastre y exponerlos a situaciones de peligro, se puede enviar un robot controlado remotamente por una persona y que al usar realidad virtual ejecuta las funciones necesarias, que son imitadas por el robot en tiempo real.

– 88 –

figura 3: teleoperación de un robot nao por medio de captura de movimiento.

La teleoperación de robots tiene una aplicación muy amplia e importante en el mejoramiento de la calidad de vida de personas con discapacidades motoras. Esta idea dio inicio al proyecto TERISA (Telerobotic Intelligent System), el cual es un sistema de telepresencia por medio de un robot humanoide NAO que permite a pacientes con limitaciones motoras realizar tareas simples a través del robot, además de utilizarlo como un medio de comunicación e interacción con el mundo. En resumen, TERISA es un sistema de telerrobótica inteligente, es decir, una plataforma computacional incorporada en un robot humanoide para realizar telepresencia. El proyecto TERISA integra distintas tecnologías que permiten diferentes formas de controlar al robot, dependiendo del tipo de discapacidad del usuario, como se ilustra en la Figura 4. De esta manera, si el usuario tiene el control de sus brazos y/o torso, puede operar el robot por medio de un sistema de captura de movimiento, donde,

– 89 –

por ejemplo, levantar el brazo derecho se traduzca en una función específica en el robot, como caminar en una dirección determinada. Si el usuario tiene limitación en el movimiento de sus brazos, el sistema puede ser controlado a través del movimiento de los dedos, usando sistemas como LeapMotion, donde los distintos movimientos de cada dedo se traducen en comandos distintos para el robot (por ejemplo, un movimiento circular del dedo índice izquierdo puede traducirse en que el robot asiente con su cabeza). Adicionalmente, con un sistema de lentes de realidad virtual, el robot puede imitar el movimiento de la cabeza del usuario. Cuando el daño motor de la persona es elevado, la operación del robot puede hacerse mediante ondas cerebrales. Imaginen a una persona que perdió la movilidad total de su cuerpo, pero no el control de su mente, y que se encuentra postrada en una cama o silla de ruedas. Esta persona podría utilizar un visor de realidad virtual en donde recibiría las imágenes captadas por las cámaras del robot, permitiéndole ver lo que ve el robot. Así podría experimentar nuevamente el mundo de forma virtual, ayudándolo a salir del encierro físico debido a su condición. El efecto psicológico que experimentaría sería sumamente positivo y su calidad de vida daría un giro de 180 grados.

figura 4: modos de operación, proyecto terisa.

– 90 –

Por medio del proyecto TERISA un paciente que sufre de esclerosis lateral amiotrófica (ELA) y no puede salir de su habitación, podría participar en actividades familiares tales como sentarse a la mesa a comer a través de su robot teleoperado. Desde su cama, la persona podría ver a toda su familia mediante de las cámaras del robot, escuchar lo que hablan e incluso participar de las conversaciones, ya que el robot puede vocalizar palabras que la persona escribe con sus ondas cerebrales. No hay duda que la calidad de vida de toda la familia mejora de manera inimaginable con esta tecnología. El sistema mencionado en el párrafo anterior es un ejemplo de una Interfaz Cerebro-Computadora (Brain-Computer Interface o BCI por sus iniciales en inglés), la cual se describe como «un sistema de comunicación en el que los mensajes o comandos que un individuo envía al mundo externo no pasan a través de las rutas de salida normales del cerebro, entiéndase nervios periféricos y músculos» (Mason, 2003: 11) (ver Figura 5). Dichos sistemas emplean técnicas encefalográficas para detectar patrones de actividad cerebral, que sirven como entrada para una interfaz de control de algún mecanismo físico o virtual, como lo es el robot NAO.

figura 5: modelo funcional de una bci (adaptado desde mason, 2003: 11).

Una de las principales motivaciones para trabajar con BCIs es precisamente crear sistemas de asistencia para personas con «síndrome de encierro», quienes sufren de movilidad reducida o nula a pesar de presentar una actividad neurológica normal. Este síndrome

– 91 –

incluye una serie de enfermedades de las neuronas motoras que afectan a las células que controlan los movimientos voluntarios del cuerpo. Algunos ejemplos: esclerosis lateral amiotrófica, paraplegia espástica hereditaria, esclerosis lateral primaria, atrofia muscular progresiva, parálisis bulbar progresiva y parálisis seudobulbar. Al utilizar sistemas de inteligencia de reconocimiento de patrones se pueden diseñar soluciones para estos pacientes cuya movilidad ha sido severamente comprometida. Para que un sistema de este tipo funcione, lo más importante es producir las señales adecuadas y que los algoritmos sean capaces de detectar estos sutiles patrones específicos, asociados a las señales intencionales que emiten los pacientes. En este sistema, el usuario no se concentra directamente en la tarea que lleva a cabo, sino que se crea un canal de comunicación entre la máquina y la persona a través de ondas cerebrales, en la que ciertos procesos cognitivos conocidos y que se pueden medir son asociados a tareas preestablecidas en la aplicación. En este caso, el canal de comunicación se logra utilizando imaginería motora, la cual es una tarea cognitiva que se refiere a la reproducción mental de un movimiento específico sin ningún otro tipo de estímulo motor (Pfurtscheller, 2006: 31). El proceso para ejecutar esta técnica consiste en la concentración del usuario en la imaginación del movimiento de una de las extremidades. Este pensamiento crea una actividad en la corteza motora en la zona relacionada con dicho movimiento, que se refleja en una desincronización de la señal bioeléctrica medida a través de electrodos y electroencefalografía. Luego de adquirida, la señal eléctrica se traduce a un sistema binario y este sistema la analiza buscando características específicas que indiquen una intención de movimiento (mayor actividad cerebral en una zona específica). Una vez identificada y traducida esa señal, el sistema genera el comando, que bien puede ser un movimiento en el robot o la selección de una palabra específica que el robot vocalizará. Una de las mayores fuentes de frustración para los pacientes que sufren de este tipo de discapacidades es la imposibilidad de poder comunicarse, por lo que la funcionalidad de vocalización de estos sistemas se convierte en una de las partes que más ayuda a mejorarles su calidad de vida.

– 92 –

Utilizando una Interfaz Cerebro-Computador, el usuario emplea su pensamiento para emitir impulsos que son captados, procesados, clasificados y traducidos para generar señales mediante la imaginería motora que le permiten interactuar con una interfaz gráfica en donde dichas señales se asocian a un panel de palabras que el usuario es capaz de seleccionar para ser vocalizadas por el robot NAO. En un futuro no muy lejano, los algoritmos de inteligencia artificial utilizarán grabaciones previas de la voz de los usuarios, logrando hacer que el robot NAO «hable» muy parecido a lo que lo hacía el usuario antes de su enfermedad. Esto se consigue con tecnologías similares con las que podemos generar cualquier movimiento en un dibujo animado, con base en grabaciones previas del humano realizando movimientos. Los proyectos que se están desarrollando en el PRIS Lab buscan ser una herramienta para mejorar la calidad de vida de las personas que sufren del síndrome de encerramiento, aprovechando los crecientes avances tecnológicos para darles la posibilidad de comunicarse e interactuar con el mundo que los rodea, devolviéndoles así en parte la independencia que han perdido. Conforme más utilicen el sistema, más datos los ayudarán a mejorar y volverse más «inteligentes», aumentando la velocidad de respuesta, reduciendo la cantidad de errores e incrementando las opciones de interacción para los usuarios. El futuro es muy prometedor. Referencias bibliográficas Calderón, S., Sáenz, A., Mora, R., Siles, F., Orozco, I. & Buemi, M.E. (2015). DeWAFF: A Novel Image Abstraction Approach to Improve the Performance of a Cell Tracking System. 5th IEEE International Workshop and Conference on Bioinspired Intelligence IWOBI 2015, San Sebastián, España. Mason, S. G. & Birch, G.E. (2003). IEEE Transactions on Neural Systems and Rehabilitation Engineering, 11 (1), 70-85. Copyright 2003 por IEEE. Nunez, L., Dajles, D. & Siles, F. (2018). Teleoperation of a Humanoid Robot Using an Optical Motion Capture System. 8th IEEE International Workshop and Conference on Bioinspired Intelligence IWOBI 2018, Costa Rica. Pfurtscheller, G., Brunner C., Schlögl A., & Lopes Da Silva, FH. (2006). Mu rhythm (de) synchronization and eeg single-trial classification of different motor imagery tasks. Neuroimage, 31 (1): 153-159.

– 93 –

Siles, F. & Saborío, J.C. (2015). Parallel Spatial Segmentation for the Automated Analysis of Football. 5th IEEE International Workshop and Conference on Bioinspired Intelligence IWOBI 2015, San Sebastián, España. Wolpaw, J. R., Birbaumer, N., McFarland, D. J., Pfurtscheller, G. & Vaughan, T. M. (2002). Brain-computer interfaces for communication and control. Clinical Neurophysiology, 113 (6), 767-791. Doi:10.1016/S1388- 2457(02)00057-3.

– 94 –

Congestión en la autopista de la información mónica bonilla, universidad del rosario álvaro crovo, universidad del rosario

Durante la última década del siglo XX fue común referirse al fenómeno del auge de Internet y de los sistemas de información bajo la metáfora de La súper autopista de la información (Lyon, 2001). La alegoría fue pensada con la perspectiva de que la tecnología permite el tránsito de la información con una velocidad sin precedentes. Sin embargo, lo paradójico de esta representación es que también resulta adecuada para ilustrar cómo Internet se ha convertido en un instrumento para replicar los escenarios de desigualdad presentes en la sociedad. Una interpretación fiel al sentido original de la metáfora indica que una autopista es el instrumento urbano por excelencia para el progreso y la movilidad; en contraste, otra interpretación posible sugiere que una autopista es una vía congestionada, un espacio de intolerancia y un sinónimo de inmovilidad. La desigualdad en el ámbito tecnológico entre las y los jóvenes latinoamericanos puede ser expresada de forma gráfica bajo el supuesto de que la súper autopista de la información tiene dos carriles; el primero, correspondiente a la interpretación original de la metáfora, y el segundo, que se asemeja más a una vía congestionada. Mientras para las y los usuarios del primer carril Internet es un vehículo novedoso y versátil, para las y los usuarios del segundo carril es una retención, un accidente en la vía o un insulto que se recibe a las seis de la mañana. Uno de tantos puntos en donde se evidencia el separador entre un carril y otro es la diferencia de competencias respecto al manejo de Internet entre quienes transitan por el carril veloz y quienes transitan por la vía congestionada. Si bien es cierto que el acceso a Internet se ha venido fomentando a través de puntos de conexión

– 95 –

en bibliotecas públicas, en los colegios y mediante la telefonía móvil, es cierto también que hay algunas competencias necesarias para emplear Internet de forma adecuada que sólo se adquieren tras el uso prolongado de las tecnologías de la información. Acerca de esto, la UNESCO estableció unos parámetros generales que permiten evaluar el nivel de alfabetización digital en el territorio. Sin embargo, es claro que tener acceso a Internet no basta, pues hace falta contar con determinadas habilidades para poder aprovechar la innovación tecnológica, habilidades que van desde aprender a iniciar un ordenador hasta el diseño de herramientas de software y hardware para desarrollar una tarea específica (Antoninis y Montoya, 2018)1. Las competencias señaladas por la UNESCO se refieren de forma exclusiva a la relación entre las y los usuarios y los dispositivos tecnológicos, pero, no por eso hay que olvidar que presupuestos básicos de la educación como la escritura, la lectura y las competencias ciudadanas también hacen parte de las dinámicas interdigitales de las y los usuarios. Podría decirse incluso que el separador de La súper autopista de la información es tan solo una elongación de la brecha que hay respecto de la educación entre las y los jóvenes latinoamericanos, ya que mientras las y los jóvenes que tienen la posibilidad de ir a las instituciones educativas de mejor calidad consiguen buenos trabajos, salarios y automóviles, las y los jóvenes cuyos padres no pueden costear los mismos niveles de educación se quedan toda la vida en el mismo sitio. Es así como Internet, una herramienta con un potencial disruptivo y democrático invaluable, termina replicando los mismos escenarios de desigualdad que están vigentes en la sociedad. Es claro que Internet per se no es el germen de la desigualdad respecto de la conectividad entre las y los jóvenes de América Latina, 1

Según la UNESCO, hay varias habilidades necesarias en el presente siglo para un proyecto exitoso de alfabetización digital. Éstas se dividen en siete secciones: principios fundamentales sobre hardware y software, manejo de datos e información, Comunicación y colaboración, creación de contenidos digitales, seguridad en la red, solución de problemas y competencias relacionadas con la profesión. Cada una de estas secciones cuenta con, al menos, tres o cuatro competencias requeridas para lograr un proceso de alfabetización digital exitoso. El cuadro completo sobre las competencias de alfabetización digital propuestas por la UNESCO está disponible en: http://uis. unesco.org/en/blog/global-framework-measure-digital-literacy (consultado el 9 de noviembre de 2018).

– 96 –

sino que es la arquitectura bajo la cual ha sido construido lo que funciona como un sistema que prolonga la brecha de la desigualdad. De hecho, el algoritmo, que es la piedra angular de semejante edificio al que denominamos ciberespacio, data de mucho antes a la creación de la primera web. El algoritmo es una forma de tomar decisiones que nació con la creación del Estado Moderno2 y quizás mucho antes; no obstante, la evolución tecnológica le ha permitido perfilarse como la herramienta ideológica propicia para la discriminación. El algoritmo es el peaje ubicado justo antes del punto donde la súper autopista se bifurca, él decide quién va por el carril veloz y quién se queda inmóvil en el trancón. Es por eso que hay dos competencias relacionadas con el algoritmo que todo joven latinoamericano debe poseer para evitar que Internet se convierta en sinónimo de desigualdad y de estancamiento social; y en lugar de eso, que Internet sea como el carril rápido de una súper autopista con dirección al progreso. Estas dos competencias son el reconocimiento del algoritmo y el discernimiento crítico de los contenidos en Internet. Al margen de los estándares de alfabetización digital de la UNESCO, que son instructivos como metas de política pública, si instituciones más cercanas al nicho social de las y los jóvenes, como la familia o el colegio, se esforzaran por implementar políticas educativas en las que se promueva el desarrollo de estas dos competencias desde la temprana edad, la brecha de la desigualdad entre las y los jóvenes latinoamericanos se vería reducida en temas como la educación y la oportunidad laboral, al menos en lo atinente al uso de plataformas virtuales.

2

La afirmación surge de una lectura del concepto de «Tecnología política del cuerpo», desarrollado por Michael Foucault en Vigilar y Castigar. Según Foucault (2009), las instituciones disciplinan a los individuos a través de tres procedimientos: la inspección jerárquica, la sanción normalizadora y el examen (p. 199). Estos procedimientos permiten que el individuo se convierta en un cuerpo dócil y productivo. Los autores del presente texto consideran que la noción de tecnología política del cuerpo y sus respectivos procedimientos –sobre todo el de examen, que en palabras de Foucault (2009) «es una mirada normalizadora que permite calificar, clasificar y castigar» (p. 215)– son el reflejo de una racionalidad algorítmica al interior de las instituciones. Por otro lado, la referencia al Estado moderno se da debido a que Foucault (2009) indica en Vigilar y Castigar que las disciplinas y la tecnología política del cuerpo nacieron como proyecto de las instituciones mientras los Estados modernos surgían entre discursos de libertad y garantías.

– 97 –

Reconocer el algoritmo El algoritmo es un guardián en una puerta, tal vez uno como el del cuento de Franz Kafka3. Él toma la decisión de quién entra y quién no, no hay más opciones. Nadie sabe con exactitud cómo toma sus decisiones. Sin embargo, sus veredictos son de vital importancia en la vida de las personas. Un algoritmo puede decidir si una persona obtiene un crédito hipotecario o si un o una estudiante se hace beneficiario de una beca o no, e incluso puede decidir si una persona adquiere una póliza de seguro médico o no. Contrario a lo que se pensaría, el algoritmo no está hecho de software. Los procesos de toma de decisión tienen un carácter algorítmico desde la modernidad, es decir, se realizan ciertas acciones de manera secuencial con el objetivo de ejecutar diferentes procesos y responder a determinadas necesidades; en el contexto no computacional haría referencia a las resoluciones que hacen los seres humanos siguiendo unas reglas. Respecto al algoritmo como código, es un grupo de instrucciones definidas, ordenas y finitas que llevan a la realización de una acción mediante unos pasos determinados que permiten a quien realice la acción hacerlo de manera precisa. Entender la estructura implica hacer una representación de los diferentes niveles que existen para la ejecución de tareas por parte de las máquinas. El modelo burocrático de la administración, descrito por Max Weber4, hacía referencia a una etapa temprana en el desarrollo del Estado-Nación, donde estaba presente la urgencia de recolectar la mayor cantidad posible de datos acerca de las y los ciudadanos. Esto evidencia que antes del internet, los gobiernos ya realizaban prácticas de calificación de las y los ciudadanos con propósitos administrativos, el primer paso para la toma de una decisión de carácter algorítmica. El segundo paso, luego de registrar los datos de la persona, es cuando el algoritmo tiene que convertir los datos en información. Este proceso es conocido como Data Mining5, y hay varios mecanismos mediante 3 4 5

Ver Ante la Ley, de Franz Kafka: https://ciudadseva.com/texto/ante-la-ley/ (consultado el 9 de noviembre de 2018). Se pueden encontrar ideas de Weber estudiadas en el contexto tecnológico, en textos como Surveillance Society, de David Lyon. La siguiente es la entrada de Wikipedia sobre Data Mining: https://en.wikipedia.org/ wiki/Data_mining (consultado el 9 de noviembre de 2018).

– 98 –

los cuales puede ser llevado a cabo. Uno de los más utilizados es el predictive modeling6, que consiste en el análisis de datos con el objetivo de consolidar proyecciones hacia el futuro. A través del uso de este modelo, por ejemplo, es posible para una empresa proyectar en el futuro el comportamiento de un postulante para un trabajo, basándose en los resultados de su evaluación psicotécnica, escenario que puede prestarse para múltiples formas de discriminación. Si bien no hay claridad acerca de cómo funciona el algoritmo, dado que la toma de decisiones puede tener diferentes variables, es una ventaja tener consciencia sobre la existencia del mismo. Aunque no es un fenómeno tecnológico, la metamorfosis de los pesados libros de archivo de la oficina burocrática, que se convirtieron en las bases de datos de Internet, estableció una relación estrecha entre el algoritmo y el software. La ubicuidad de los sistemas de información permite que el algoritmo esté cada vez más presente en la vida diaria, por eso es importante ser conscientes de su existencia y presencia en nuestra vida, al menos digital. Las y los jóvenes latinoamericanos que van por el carril lento de la súper autopista de la información están en desventaja si no tienen conciencia de la existencia del algoritmo. Pongamos como ejemplo algunos de los procedimientos que usan actualmente muchas empresas cuando realizan contrataciones. Un o una joven que tiene conocimiento de la tarea del algoritmo puede llegar a conclusiones como que las empresas y las universidades investigan los perfiles de sus candidatos en las redes sociales. De esta forma, alguien que no reconozca la presencia del algoritmo puede ser muy irresponsable con el manejo de su imagen pública. Preocupación válida, teniendo en cuenta lo fácil que es para las personas sentirse desligadas de su identidad material en los espacios virtuales7. De modo que a un o una joven que ignore la propensión de las empresas, las universidades y la misma sociedad, en relación a su navegación y la constitución de su identidad digital, lo puede hacer vulnerable en términos de 6

7

Una descripción acertada e ilustrativa de los procesos de Data Mining se encuentra disponible en Mobility, data mining and privacy: a geographic knowledge discovery, de Fosca Giannoti y Dino Pedreschi. Para profundizar sobre el imaginario en el que el ciberespacio es una dimensión ajena a la realidad, resulta útil el texto Born Digital, de John Palfrey y Urs Gasser.

– 99 –

inclusión y de igual forma exclusión, dentro de diferentes aspectos de interacción social. En el contexto laboral, por ejemplo, a partir del perfil virtual de una persona, una compañía selecciona su personal. Esta caracterización se realiza por medio de algoritmos que investigan y construyen la identidad virtual del postulante, quien está en potencial peligro de ser rechazado para múltiples trabajos por una razón que desconoce. Por eso es necesario concientizar a las y los jóvenes respecto al modo en que muchos actores sociales están tomando decisiones de participación, que es bajo la aplicación de algoritmos, con el objetivo de que cada vez más jóvenes no sean calificados como indeseables por el algoritmo y puedan conseguir buenos empleos, ingresar a programas universitarios, tener acceso a cierta información, entre otros aspectos; y que los ayuden a conseguir sus metas personales. Discernimiento crítico Julio Cortázar escribió un cuento en el cual todas y todos empiezan a escribir. En consecuencia, toda la tierra se llena de hojas, desde el suelo hasta el cielo. Al no haber más espacio para escribir, las y los escritores (que son todas y todos) lanzan todo el papel al mar. Cuando el mar se llena, las y los escritores vuelven a hacer montañas con sus escritos en la tierra. La vuelven a llenar del suelo hasta el cielo8. Así como en el cuento de Cortázar, Internet es un espacio casi ilimitado, donde todos los días se acumulan montañas de información. Por eso es importante, sobre todo a nivel educativo, que todas y todos los jóvenes de Latinoamérica cuenten con la capacidad de discernir de manera crítica a la hora de escoger las fuentes que van a destinar a la investigación, o para enterarse de noticias y tener acceso a diferentes contenidos (informativos, educativos, de entretenimiento, etc.), además de capacitarse y participar en la sociedad. A continuación se presentarán dos ámbitos de reflexión: investigación y desinformación. Gasser y Palfrey (2008) describen cómo la tecnología en la actualidad posee herramientas que pueden ayudar a las y los jóvenes a diferenciar entre una página web que cuenta con información de calidad y otra 8

Ver Fin del mundo del fin, de Julio Cortázar: http://www.literaberinto.com/cortazar/ findemundodel_fin.htm (Consultado el 9 de noviembre de 2018).

– 100 –

que no. Hay una herramienta en particular que es resaltada por los autores: «los motores de búsqueda - the wildly powerful gatekeepers of the digital world9 (2008: 177). Los motores de búsqueda, también conocidos como buscadores, juegan un papel esencial en la solución del problema de la sobrecarga de información en Internet, ya que son depósitos del historial de búsqueda de cada usuario. Una revisión estadística de los datos de búsqueda en un buscador como Google permitiría evidenciar cuáles son las páginas preferidas por las y los jóvenes a la hora de investigar. Con eso sería posible identificar qué tan fidedigna es la información en la que las y los jóvenes basan sus procesos de investigación. Sin duda, la aproximación de Gasser y Palfrey (2008) al problema de la sobrecarga de información en Internet tiene más de un tema que merece ser discutido. Piénsese, por ejemplo, en la privacidad de las y los usuarios, o en el hecho de que la educación de las y los jóvenes descanse en las manos de grandes corporaciones privadas sin ninguna consideración ética. Respecto a la desigualdad en América Latina, es claro que la sobrecarga de información en Internet es una cuestión a la que son más vulnerables las y los jóvenes que tienen menos acceso a Internet. Siguiendo la solución planteada por Gasser y Palfrey (2008), la herramienta que hoy en día continúa teniendo vigencia y que puede tener mayor impacto social, además de ser usada en pro de generar discernimiento crítico y empoderamiento de las y los jóvenes, son los motores de búsqueda, solución que sólo puede estar dirigida a jóvenes con acceso constante a un motor de búsqueda. Por la manera en cómo opera una search engine, la propuesta de revisar el historial de búsqueda académica de las y los jóvenes para identificar las páginas web más consultadas sólo se hace posible cuando cada joven es identificado con uno o varios dispositivos. De este modo, un o una estudiante que tiene que hacer sus labores de investigación en una biblioteca pública, porque no cuenta con un plan de datos para su celular ni un computador en casa, queda de manera automática excluido del rango de acción de la solución.

9

La traducción sugerida sería: «los motores de búsqueda - los salvajemente poderosos guardianes del mundo digital».

– 101 –

El problema de la sobrecarga de información en Internet tiene consecuencias como la desinformación (missinformation) y casos concretos como las noticias falsas y el daily me, ambos causados por la falta de discernimiento crítico de las personas a la hora de navegar en la red. En primer lugar, las fake news son noticias que reportan hechos falsos, generalmente presentadas a través de formatos digitales similares a los de la prensa, aspecto que puede provocar confusión en una persona sin acceso frecuente al espacio digital. En segundo lugar, el daily me es un fenómeno según el cual cada usuario administra su propio contenido periodístico, entregado a través de la operación del algoritmo; es decir, el algoritmo estudia el comportamiento del usuario en línea y luego le entrega el contenido que resulte adecuado para él o ella según un proceso analítico. Este segundo efecto de la falta de discernimiento crítico tiene su manifestación última en problemas como el fanatismo en las redes sociales, ya que cuando el algoritmo dirige propaganda política de forma intrusiva a las y los usuarios a través de las redes sociales, las y los jóvenes que carecen de la competencia de discernimiento crítico frente a los contenidos que leen en Internet están expuestos a creer que la información que reciben es de carácter general y que, por eso mismo, es la última verdad respecto de la realidad social y política del lugar donde se desarrolle dicha noticia, concepción que va a resultar en palabras y actos de odio en contra de quienes opinen diferente. Estos dos escenarios problemáticos pueden ser resueltos con la propuesta de Gasser y Palfrey (2008). De hecho, la virtud de esta propuesta radica en que es el código el mecanismo para mitigar los efectos perjudiciales de la sobrecarga de información en Internet. Los fake news y la propaganda política dirigida a través del daily me, hijos del código, son reprendidos por su propio padre. No obstante, la inquietud sobre la desigualdad sigue sin estar resuelta. Las y los jóvenes que no tienen un acceso frecuente a motores de búsqueda y que no se identifican con un dispositivo siguen destinados a enfrentarse en las bibliotecas públicas con montañas y montañas de información, sin ninguna herramienta de discernimiento crítico. El algoritmo nuevamente cierra la puerta a quienes van por el carril lento, los deja embotellados entre bocinas y vecinos insultándose. Esto prueba que el ecosistema digital está dirigiéndose cada vez más

– 102 –

hacia un modelo cuyo único foco de atención es el carril veloz de La súper autopista. El carril lento de La súper autopista sólo cobra protagonismo cuando es necesario analizar el comportamiento de las y los usuarios con el fin de registrarlos, clasificarlos y perfilarlos, para que después el algoritmo los rechace a través de decisiones discriminatorias. Conclusión El algoritmo no es una innovación tecnológica, sino un proceso mediante el cual se toman decisiones; primero clasificando al sujeto y luego asignándole un lugar. Lo que ha permitido la innovación tecnológica es el abastecimiento del algoritmo con cantidades inimaginables de información. Las search engine, la publicidad dirigida y el software de analítica predictiva son muestras pequeñas de lo que el algoritmo es capaz de hacer con la información adecuada. Lo anterior conlleva una responsabilidad moral importante. La toma de decisiones fundamentada en datos recogidos por medio de sistemas de información puede llegar a ser radicalmente discriminatoria. Si bien las decisiones del algoritmo no son susceptibles de un examen moral, los factores que determinan esas decisiones son escogidos por seres humanos, quienes sí deberían elegir criterios más éticos que una relación costo-beneficio a la hora de programar el algoritmo. La diferencia entre las competencias de las y los jóvenes latinoamericanos a la hora de usar Internet es una muestra diminuta del sesgo que existe en la actualidad con respecto al uso de las tecnologías de la información. Sin embargo, resulta ilustrativo pensar que el propio espacio digital está replicando las desigualdades del mundo análogo, que es lo que muestran las dos competencias aquí estudiadas. Las y los jóvenes latinoamericanos que no reconocen la existencia del algoritmo carecen de una comprensión de la estructura de Internet y de la forma en que las empresas toman decisiones, lo que los deja por fuera de múltiples espacios laborales. Por otro lado, las y los jóvenes latinoamericanos que no son capaces de discernir los contenidos de Internet de forma crítica están ajenos al espectro tecnológico de la educación. Ambos escenarios sugieren que la dimensión digital está adoptando un diseño urbano según el cual algunos usuarios van por una súper autopista, mientras otros se quedan en una retención. Por

– 103 –

eso es necesario que tanto las y los generadores de políticas educativas, como todos los sectores educativos que se dibujan alrededor de cada joven, se esfuercen por hallar cada vez más competencias que hagan posible a todas y todos los miembros de la sociedad contar con las mismas herramientas dentro de los entornos digitales. Referencias bibliográficas Ciudad Seva (9 de noviembre de 2018). Ante la ley de Franz Kafka. Recuperado de . Foucault, M. (2009). Vigilar y castigar. Nacimiento de la prisión. México: Siglo XXI Editores. Gasser, U. & Palfrey, J. (2008). Born digital understanding the first generation of digital natives. New York: Basic Books. Giannoti, F. & Pedreschi, D. (2008). Mobility, data mining and privacy: a geographic knowledge discovery. Berlin: Springer. Litelaberinto (9 de noviembre de 2018). Fin del mundo del fin de Julio Cortázar. Recuperado de . Lyon, D. (2001). Surveillance society monitoring everyday life. Philadelphia: Open University Press. UNESCO, Institute for statistics (9 de noviembre de 2018). A Global Framework to Measure Digital Literacy, Manos, A. y Montoya, S. Recuperado de . Wikipedia (9 de noviembre de 2018). Data Mining. Recuperado de .

– 104 –

Instagram como interfaz tecnológica: algoritmos e interacción de las juventudes carolina castro grau, universidad de chile

Introducción El objetivo de este capítulo es ofrecer una propuesta teórica que permita identificar y comprender tanto las significaciones como las lógicas de acción que orientan la experiencia de interacción y presentación de contenido visual en Instagram, de jóvenes entre 18 y 29 años, de diferentes contextos socioeconómicos. Para este estudio se realizó adicionalmente una experiencia piloto en la ciudad de Santiago de Chile. Como base del abordaje teórico se utilizará como referente el concepto de «experiencia social» de Dubet (2011), al que se añade la noción de interfaz tecnológica. La finalidad de este ejercicio analítico es contribuir a comprender cómo estas plataformas de redes sociales con su diseño de interfaz, affordances, algoritmos y procesamiento de datos posibilitan las formas de interacción de las y los jóvenes en nuevos espacios sociales virtuales, configurando una experiencia que responde no sólo a la voluntad de los sujetos, sino también a los marcos de acción que proponen las propias tecnologías digitales y sus entramados codificados. Redes sociales y narrativas de sí, el caso de Instagram En la sociedad contemporánea, los sujetos se encuentran con mayores cuotas de responsabilidad en la definición de sus esquemas de acción y respectivas construcciones identitarias, situación que responde principalmente a la crisis generada por la deslegitimación de las instituciones y estructuras propias de la sociedad moderna (Dubet, 2010), posicionando al mercado como el principio organizador de la vida social (Castaño, 2017), lo que funciona como anclajes temporales de sentido que orientan las acciones (Lipovetsky, 2006). – 105 –

El uso de plataformas de redes sociales en América Latina es intenso (Comscore, 2017). En Chile el acceso a Internet supera el 80% en la población, mayoritariamente desde conexión móvil, siendo las plataformas de redes sociales la principal categoría de uso de Internet en el país (Subtel, 2017), sobre todo entre las juventudes, quienes serían los grupos sociales más expuestos a este nuevo contexto (PNUD, 2002; Livingstone, 2008; Al-Kandari, Melkote y Sharif, 2016) y para quienes la red se ha convertido en un aspecto fundamental de su cotidianidad (Feixa, 2005). Instagram es una de las plataformas de redes sociales con mayor crecimiento en el mundo (Pew Research Center, 2018), contando con 1.000.000 de usuarios al presente (Instagram, 2018; WeAreSocial & Hootsuite, 2018) y consolidándose como la red social predominante para compartir fotografías (Bañuelos, 2017). Su arquitectura tecnológica se destaca desde sus inicios por ofrecer una interfaz diseñada para producir, retocar y compartir contenido visual en un mismo lugar, privilegiando este recurso para la interacción. Al mismo tiempo, mediante sus mecanismos de procesamiento de datos, invita a valorar lo que ocurre a cada instante y, a la vez, estar deseoso de lo nuevo y de lo inmediato (Naval, Serrano-Puche, Sádaba-Chalezquer y Arbués-Radigales, 2016), lo que ha desembocado en un frenesí de la auto-documentación y auto-narración de los propios sujetos. En estos espacios de interacción los usuarios pueden escoger desde un amplio espectro de opciones (qué, cómo y cuándo presentarse ante los demás), lo cual permite entender el contenido visual como un producto cultural y, asimismo, como «una tecnología afectiva que permite vehiculizar la experiencia de construcción subjetiva» (Triquell, 2013: 4). Sobre la experiencia social y sus lógicas de acción Entre las teorías que explican a los individuos y sus acciones a partir de las estructuras sociales y las sociologías de la acción de interpretación individualista, se encuentra lo que Dubet (1996) denomina «sociología de la experiencia». Su concepto central, el que denomina «experiencia social», es definido como una manera de construir y de experimentar lo real, y no sólo de absorberlo, por tanto responde a una diversidad de principios culturales que

– 106 –

organizan las conductas en juegos sucesivos de identidad como un trabajo cotidiano y no como un ser (Dubet, 2010). En este sentido, la experiencia social no alude a un único principio orientador, sino a varios de manera paralela, y es la dinámica producida por esta actividad la que constituye la experiencia social. Para Dubet (2011), cada experiencia social procede de la articulación y combinación de tres lógicas. Por una parte está la lógica de integración social, que remite a la función socializadora de la sociedad y, por ende, el sujeto se presenta ante los demás desde su pertenencia y posición, trabajando por garantizar el reconocimiento de lugar e identidad. Por otra parte está la lógica de la estrategia, bajo la cual el sujeto instrumentaliza su acción, apuntando a objetivos y definiéndose por sus recursos y su racionalidad utilitarista. Y por último la lógica de la subjetivación, la cual no se reduce ni a la tradición ni a la utilidad, por lo que el actor no está solamente definido por sus pertenencias y sus intereses, sino también por una distancia de sí mismo y por su capacidad crítica, lo que hace de él un sujeto (Dubet, 2010). Desde una visión crítica, antes que un facilitador y traductor de la acción social, una plataforma de red social es un mediador que refleja las elecciones estratégicas de los propietarios, diseñadores y programadores (Gillespie, 2014; Van Dijck, 2016), y moldea los actos sociales (Latour, 2005), guiando de forma activa las interacciones y rutinas de los usuarios a través del diseño de su interfaz, sus affordances, y los mecanismos de procesamiento de los datos que permiten canalizar la interacción social bajo diferentes estrategias (Van Dijck y Poell, 2013), destacando el mecanismo de popularidad y los algoritmos. De manera simplificada, una interfaz refiere al conjunto de elementos de la pantalla que permiten al usuario realizar acciones en la plataforma (Van Dijck, 2016), elementos también conocidos como affordances (Norman, 1978), que refieren a invitaciones al uso (Scolari, 2018) o posibilidades de acción que tiene el usuario para interactuar en la interfaz. Por otro lado, entre los mecanismos de procesamiento de datos se encuentran los algoritmos que juegan un rol importante en la selección de la información considerada relevante para los sujetos. Un algoritmo, en un sentido básico, es una lista finita de instrucciones definidas para calcular una función automática. No obstante, esta – 107 –

determinación no se basa exclusivamente en la afinidad real de las interacciones entre dos personas, sino que también en el principio de popularidad y lo que es tendencia en el conjunto total de la red social (Gillespie, 2014). Y además en las elecciones estratégicas de los propietarios de la plataforma, lo que no sólo implica maniobras técnicas sino también ideológicas, afectando activamente la creación y la expresividad de sus usuarios (Van Dijck, 2016). Considerando lo anterior se propone, además de las diferentes lógicas orientadoras de la acción de Dubet (2011), actuar de una cuarta lógica en la experiencia de interacción en línea, mencionada anteriormente y que se denomina interfaz tecnológica. Concepto que se puede entender como una arquitectura computacional, pero igualmente en un sentido sociocultural y político, convirtiéndose en una infraestructura performativa que permite que pasen cosas, que media, sugiere, cuantifica y mide la vida social, lo cual tendría incidencia en la configuración de las experiencias de los propios usuarios (Van Dijck, 2016), transgrediendo la idea de intermediario neutral. Presentación e interacción mediante contenido visual en Instagram y sus lógicas orientadoras A través de una aproximación cualitativa, para este estudio piloto se realizaron 16 entrevistas semiestructuradas a jóvenes usuarios de Instagram y un análisis de contenido, tomando en cuenta los elementos teóricos antes abordados. En esta exploración fue posible reconocer una pluralidad de significaciones en los discursos de las y los jóvenes, y con ello identificar diferentes lógicas y racionalidades orientadoras de la acción, permitiendo comprender la experiencia social de presentación e interacción en dicha plataforma como una práctica con alcance multidimensional y que no necesariamente busca continuidad en el tiempo. Un grupo de significaciones remitió al encuentro con otros, asegurando pertenencia e integración social mediante la actualización de modos comunes de percibir la realidad, con normas y expectativas que posibilitan mantener un orden, aunque bajo los ritmos que propone la propia interfaz tecnológica, la cual organiza de forma particular los tiempos de espera, el grado de compromiso y los mecanismos de inclusión y exclusión. Estas significaciones son

– 108 –

orientadas principalmente por la administración de una lógica de integración social. Además fue posible identificar significaciones que dieron cuenta del despliegue de tácticas y un uso estratégico de recursos para la consecución de intereses y objetivos, reconociendo la experiencia en Instagram como una oportunidad de negociación y competencia que permite corporizar la presencia en el espacio online mediante el recurso visual, en conjunto con el despliegue de una serie de estrategias facilitadas por las posibilidades de acción de la propia interfaz tecnológica. Con este trabajo del sujeto se puede conseguir una mejor versión de sí mismo con el fin de ser más visible y susceptible de recibir aprobación, lo que lleva a algunos a «borrar la distinción entre la expresión personal y la publicidad, y a mercantilizar la identidad propia como un bien que hay que vender o consumir» (Dussel citado en Van Dijck, 2016: 7). Este conjunto de significaciones se orienta mayoritariamente por la administración de la lógica de la estrategia. Asimismo, fue posible identificar expresiones en las que los sujetos se perciben como autónomos, críticos y reflexivos, significando la experiencia de interacción como una oportunidad para exhibir prácticas y espacios cotidianos fuera de las pantallas, que en conjunto permiten proyectarse en línea como sujetos únicos y auténticos, con la aspiración a un reconocimiento de diferenciación del resto a través del contenido publicado. Sin embargo, al querer seguir los ritmos y el carácter de novedad promovido por la propia interfaz tecnológica, se invita a una reinvención sucesiva, y lo que antes era para toda la vida, hoy se convierte en sólo un atributo (Bauman, 2007). No obstante, es posible interpretar que esta reinvención se encuentra igualmente guiada por el contenido previamente aceptado que circula en la plataforma, dinámica que se explica principalmente por el deseo de sentido de pertenencia, aparejado a un deseo de autenticidad y autonomía, es decir, de querer ser parte de los demás al mismo tiempo que se busca singularidad (Bauman, 2013), pero sin correr el riesgo de invisibilidad. Estas significaciones responden principalmente a la administración de la lógica de subjetivación. Finalmente, al visualizar la pluralidad de significaciones que emergieron de los discursos de las y los jóvenes entrevistados, se puede advertir que la experiencia social de presentación e interacción

– 109 –

en línea es imposible de comprender sin considerar el actuar de una lógica de interfaz tecnológica. Las y los jóvenes en sus relatos dan cuenta de la importancia de los marcos referenciales de acción y mecanismos de procesamiento que ofrece la plataforma de Instagram para configurar sus propias experiencias. Algunas reflexiones sobre la propuesta de la lógica de interfaz Las plataformas de redes sociales se han transformado en espacios en donde la tecnología, las prácticas sociales, los significados y las identidades se entremezclan y dialogan constantemente, y por tanto han excedido el ámbito tecnológico, posicionándose como artefactos culturales que transforman y cuantifican cada vez más la vida social. Una propuesta de interfaz tecnológica, programada y diseñada por humanos con sesgos e intereses políticos y económicos (Van Dijck, 2016), es capaz de dirigir, orientar y moldear la propia experiencia de los sujetos (Latour, 2005; Gillespie, 2014), quienes se encuentran en una tensión constante entre inhibir ciertos esquemas de acción y actualizar otros para articular su experiencia (Dubet, 2011). Para el caso particular de Instagram, su propuesta de interacción mediante contenido visual representa una oportunidad de comunicación instantánea, efectiva y visual. Sin embargo, los algoritmos privilegian cierto contenido por sobre otro, con el fin de que el usuario permanezca la mayor cantidad de tiempo en la plataforma, configurando feeds de noticias donde las publicaciones publicitarias tienen cada vez mayor relevancia –pues son el modelo de negocio de esta plataforma. Por otra parte tenemos las affordances que permiten cuantificar la atención y el reconocimiento social, configurando dinámicas de interacción que sugieren a los sujetos ser exitosos y felices, normalizando la exposición de contenidos propios de espacios privados e íntimos (Sibilia, 2008) con el fin de construir perfiles más susceptibles de recibir «me gusta» y, en definitiva, forjando a convertirse en su propio objeto de publicidad (Han, 2013). De este modo, la búsqueda de acumulación de atención detona nuevas formas de exclusión, sometimiento y explotación (Ricaurte, 2017), pues no todos los actores sociales se encuentran de igual manera expuestos y por tanto no todos tienen los mismos márgenes de libertad de acción y resultados.

– 110 –

Sin embargo, al considerar las significaciones de las y los jóvenes de diferente edad, género y GSE –con el fin de obtener resultados lo más representativos, no así generalizables a la población dado que es un estudio de exploración inicial a la temática–, no fue posible hallar grandes discrepancias en sus discursos. Este panorama permite sospechar que al menos a nivel discursivo –no necesariamente de prácticas sociales–, en la configuración de la experiencia de interacción online existe la ilusión de ir más allá del ordenamiento socioestructural. En definitiva, la presentación e interacción de las y los jóvenes no necesariamente es un reflejo de su pertenencia a una estructura social, lo que se podría explicar por la ausencia de anclajes rígidos que orienten las acciones, pero también, en cierto modo por la predominancia que tendría la lógica de interfaz tecnológica en la articulación de la experiencia de interacción online, pues las posibilidades de acción que ofrece la interfaz permiten decidir una vida a la carta (Lipovetsky, 2007), al punto de significar y percibir sus oportunidades de construir su experiencia de un modo ilusoriamente homogéneo y a la vez diferenciador de habitar estos nuevos espacios sociales. Referencias bibliográficas Al-Kandari, A., Melkote, S. R. & Sharif, A. (2016). Needs and motives of Instagram users that predict self-disclosure use: A case study of young adults in Kuwait. Journal of Creative Communications, 11 (2), 85-101. Alter, A. (2017). Irresistible: The Rise of Addictive Technology and the Business of Keeping Us Hooked. NY: Penguin Random House. Bañuelos, J. (2017). Fotografía móvil y redes sociales: Prácticas de producción y socialización en jóvenes universitarios. ICONO14, Revista Científica de Comunicación y Tecnologías Emergentes, 15 (1), 1-22. Bauman, Z. (2007). Los retos de la educación en la modernidad líquida. Editorial Gedisa. . (2013). La sociedad sitiada. Reis, 143, 129-142. Castaño, L. C. (2017). Las redes sociales y la cultura de la autopromoción. Apuntes para una teoría de la identidad mosaico. Doxa Comunicación, 24 (1), 13-36. Comscore (2017). El Estado de Social Media en América Latina. Recuperado de . Dubet, F. (1996). ¿Ocaso de la idea de sociedad? Revista de Sociología (10). . (2010). Sociología de la experiencia. Editorial Complutense.

– 111 –

. (2011). La experiencia sociológica. Madrid: Editorial Gedisa. Feixa, C. (2005). La habitación de los adolescentes. Papeles del CEIC, 16 (1), 1-21. Gillespie, T. (2014). The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, 167. Hootsuite & WeAreSocial (2018). Digital in 2018 Southern America. Essential insights into internet, social media, mobile and ecommerce use across the region. Recuperado de: . Instagram (2018). Estadísticas. Recuperado de instagram-press.com: . Latour, B. (2005) Reassembling the Social. An Introduction to Actor-NetworkTheory. Oxford, Oxford University Press. Lipovetsky, G. (2006). Los tiempos hipermodernos. Barcelona: Anagrama. Livingstone, S. (2008). Taking risky opportunities in youthful content creation: teenagers’ use of social networking sites for intimacy, privacy and selfexpression. New media & society, 10 (3), 393-411. Naval, C., Serrano-Puche, J., Sádaba-Chalezquer, M. & Arbués-Radigales, E. (2016). Sobre la necesidad de desconectar: Algunos datos y propuestas. Education in the Knowledge Society (EKS), 17 (2), 73-90. Pew Research Center (2018). Social Media Use in 2018. Recuperado de: . PNUD (2002). Informe sobre Desarrollo Humano en Chile. Vol 1 y 2. Nosotros los chilenos: Un desafío. Santiago. Ricaurte, P. (2017). Tecnoculturas y subjetividades disidentes en la sociedad vigilante. En Pereira, J.M. (Ed.). Comunicación, lenguajes, TIC e interculturalidad. Bogotá: Universidad Javeriana. Scolari, C. (2018). Las leyes de la interfaz. Barcelona: Gedisa. Subtel (2017). IX Encuesta de Accesos y Usos de Internet. Chile. Recuperado de . Triquell, A. (2013). El juego de los espejos. Imagen fotográfica, relatos y experiencia subjetiva. Tesis doctoral, Universidad Nacional del General Sarmiento. Buenos Aires. Van Dijck, J. (2016). La cultura de la conectividad: una historia crítica de las redes sociales (The Culture of Connectivity: A critical history of social media). Buenos Aires: Siglo Veintiuno. Van Dijck, J. & Poell, T. (2013). Understanding social media logic. Media and communication, 1 (1), 2-14.

– 112 –

Pensar la inteligencia artificial y las narraciones en los videojuegos para afrontar la exclusión social de los jóvenes en América Latina marco jaramillo, pontificia universidad católica de chile

El videojuego es un medio interactivo que nutre y reproduce en su narrativa parte del mundo simbólico presente en el sistema social. Los desarrolladores diseñan personajes, diálogos, cinemáticas, mecánicas y objetivos acudiendo en forma consciente o inconsciente a nociones específicas de libertad, igualdad, éxito, colaboración, roles de género, etc. Las experiencias narrativas de los videojuegos poseen representaciones que pueden contribuir a mantener el orden social vigente o a nuevas formas de pensarlo e interpretarlo. Cumplen un rol similar al que la televisión y el cine tienen reconocido para la construcción de sociedades más justas, diversas, inclusivas y democráticas. Uno de los elementos que interviene en la narrativa de los videojuegos es la inteligencia artificial, encargada de modelar y generar contenidos y comportamientos de elementos vinculados con la experiencia de juego. Su diseño e implementación no se reduce a un asunto técnico, sino que también expresivo. Es parte del lenguaje de diseño y de la propuesta que hace el videojuego al jugador. Por eso se trata de un componente discursivo y político. En América Latina, una parte de los jóvenes juegan con regularidad. Se vinculan y disfrutan de las narrativas de los videojuegos. Pero al mismo tiempo sufren de exclusión social, económica y política desde de los sistemas educativos, el mercado del trabajo, la representación política, el acceso a seguridad social, entre otros; así como brechas educativas en la misma generación. La situación de este grupo de usuarios presenta a los desarrolladores la oportunidad de aprovechar la proximidad que tienen con los

– 113 –

videojuegos para contribuir a disminuir el problema de la exclusión. En este capítulo se abordará la pregunta sobre cómo debería ser aplicada la inteligencia artificial para influir en la producción de narrativas que aporten a la inclusión y la disminución de brechas de los jóvenes en Chile y América Latina en el mercado laboral, los sistemas educativos y la representación política. La narrativa en el videojuego: una forma de interacción comunicativa Definir la narración en el videojuego exige comenzar la reflexión con el clásico debate entre narratólogos y ludólogos a fines de los años noventa y principios de este siglo. Los primeros consideraron el videojuego como un medio narrativo digital (Planells, 2013; Rossi, 2018), susceptible de ser estudiado por la narratología, incorporando el hipertexto en el análisis como hicieron Janet Murray (1997), Marie-Laure Ryan (2003) e Isidro Moreno (2002). Los segundos lo caracterizaron como simulaciones construidas por un conjunto de reglas, destacando por sobre todo su componente lúdico (Frasca, 2001 y 2003). O como textos ergódicos en los que confluye la historia y el relato, y por lo tanto no pueden ser analizados por la narratología clásica aunque incorpore la hipertextualidad (Aarseth, 1997; Juul, 2001). El desencuentro se porque los narratólogos siguen sosteniendo una visión estructuralista de la narración (Genette, 1972). Por eso se propone entender la narración adaptando la propuesta post-estructuralista y cognitiva de Herman (2009), que la define como producto de una interacción comunicativa, que para el caso del videojuego sería entre el desarrollador y el jugador, en donde el primero ofrece una narrativa guionizada compuesta por personajes, sus comportamientos, los diálogos, las cinemáticas, el entorno, las reglas y los objetivos, para que el segundo construya su narrativa personal que es el producto de las decisiones que toma con su avatar (Calleja, 2011). La narrativa personal es el resultado de la relación entre la propuesta semiótica del juego, la estructura de reglas que ofrece el juego y las facultades cognitivas del jugador para interrelacionarlas y actuar en el mundo de ficción interactiva (Calleja, 2009). Se trataría de un proceso de apropiación en donde el usuario filtra, resignifica, integra

– 114 –

o rechaza (Martín-Barbero, 2010) la narrativa guionizada para decidir y crear a través de su avatar un curso de acontecimientos, un relato. El esquema incorpora a la qualia como un elemento fundamental. Herman (2009) describe esta propiedad como el peso psicológico y emocional que experimentan los personajes con los acontecimientos que van ocurriendo y que el jugador experimenta de una manera particular. La inteligencia artificial y la narrativa en videojuegos La inteligencia artificial es la responsable de modelar la experiencia del usuario generando contenido (texturas, reglas, elementos narrativos, etc.) y comportamientos tanto para NPC (Non-Player Carácter) y para jugadores artificiales (Yannakakis y Togelius, 2015). Los personajes que no son controlados por un usuario humano son programados para tener determinadas conductas, diálogos y expresiones en el mundo virtual y frente a las acciones del jugador. Se plasman en ellos formas específicas de qualia ante la reacción a los acontecimientos que están predefinidos en la narrativa guionizada o que son producto de la interacción del jugador con ellos. Por eso la inteligencia artificial no sólo es una cuestión técnica. También es un recurso expresivo del videojuego que forma parte del lenguaje del diseño (Mateas, 2003) y de la narrativa guionizada. Y es que en su implementación se plasma una visión específica sobre el comportamiento humano frente a distintos acontecimientos, sugiriendo un punto de vista antropológico y político sobre la relación entre conductas, emociones, motivaciones y el entorno. Para implementar la inteligencia artificial se suelen usar una de las dos técnicas descritas por Lou y McArdel (28 de agosto de 2017). La primera es la clásica Finite State Machine (FSM), un algoritmo introducido en los años noventa que permite programar reacciones específicas de los NPC frente a situaciones concretas. Por ende, son incapaces de aprender con la información entregada por los usuarios, manifestando patrones complejos aunque repetitivos que pueden ser memorizados. Este método es utilizado con frecuencia en los videojuegos, pues permite mantener el control sobre la experiencia de juego. Y al mismo tiempo genera un desafío que es entretenido,

– 115 –

con jugadores que memorizan los patrones y escogen las mejores estrategias para triunfar. La otra alternativa es el método Monte Carlo Search Engine (MCST), un algoritmo basado en ensayos aleatorios que va calculando con mayor precisión todas las posibles reacciones para elegir la mejor. Según Lou y McArdel (28 de agosto de 2017), un juego basado en esta técnica puede tener, al comienzo muchas variaciones y ser cada vez más impredecible, pues a juicio de Chaslot, Bakkes, Szita y Spronck (2008) permitiría simular que la inteligencia artificial se comportará de manera «realista» y «más humana». En opinión de Lara-Cabrera, Nogueira, Cotta y Fernández Leiva (2015), el futuro de la inteligencia artificial en videojuegos se hallará en métodos que superen la «estupidez artificial», donde los desarrolladores logren dotar a bots y a jugadores artificiales de comportamientos bio-inspirados, de gran complejidad e impredecibles. Esto significaría un reto para el jugador que ya no podrá sólo inferir y memorizar el patrón de acción de los NPC, sino que además se enfrentará a una experiencia similar a la de jugar con otros usuarios humanos. La selección de la técnica también agrega un valor expresivo distinto. El método FSM implica tener más control sobre la narrativa guionizada y, en consecuencia, sobre los marcos en que el jugador crea su narrativa personal, a costo de que a causa de la reiteración de los patrones de comportamientos terminen siendo irrelevantes para el usuario, que en su proceso de apropiación irá perdiendo progresivamente la capacidad de sorprenderse, emocionarse y ser influido por la qualia asociada a sus comportamientos frente a los acontecimientos. Por el contrario, implementar la técnica MCST o cualquier otro algoritmo bio-inspirado que pretenda simular el comportamiento humano hará más impredecible la experiencia del jugador para el desarrollador. Sin embargo, la interacción del usuario con los NPC y los jugadores artificiales será más densa, más emocional, mucho más significativa. Similar a la sensación que se experimenta al jugar con otros usuarios online. Para explorar el potencial aporte que una u otra forma de programar las conductas de los NPC puede tener que a los jóvenes usuarios de América Latina, se explicarán cuáles son las principales exclusiones sociales que deben enfrentar.

– 116 –

Jóvenes latinoamericanos y la exclusión social: un desafío en el siglo XXI Definir juventud es complejo porque es un concepto que cambia histórica y socialmente. Frente a este problema, Canales, Ghiardo y Opazo (2015) proponen definirla como el tiempo biográfico destinado a la construcción y el ejercicio progresivo de la autonomía social, política y económica, en donde el sujeto comienza a erguir su futuro a través de sus decisiones. En opinión de los autores, en esta etapa el individuo toma conciencia de las restricciones, de las injusticias de la estructura social que le impiden desplegar la trayectoria biográfica que desea, sufriendo en el camino discriminaciones y otras formas de violencia (Canales, Ghiardo y Opazo, 2015). Según Hopenhay (2008), los jóvenes sufren dos tipos de exclusión: la intergeneracional y la intra-generacional. La primera la atribuye a la brecha que existe entre las capacidades que tiene este grupo de la población y las oportunidades que se les entrega. Son la generación con mayor formación, acceso a información y manejo de tecnologías, pero con menos oportunidades de ingresar efectivamente al mercado del trabajo. La segunda la vincula con la brecha educacional que existe entre la juventud debido al capital humano y cultural que han podido acumular producto de factores que no están relacionados con el mérito como el género, el origen socioeconómico y étnico, el nivel educativo alcanzado por los padres, entre otros. Los más privilegiados de la sociedad suelen ser los que tienen mayores oportunidades de lograr la autonomía y concretar sus proyectos de vida. Narrativas en videojuegos: comprensión y llamado a la acción política de los jóvenes La narrativa guionizada diseñada por los desarrolladores debe aspirar a generar narrativas personales en los jugadores que les sirvan como fuentes para dos desafíos. Primero, que les ayude a comprender el origen de la exclusión social de su generación, que forme conciencia entre ellos sobre el rol de la desigual distribución del ingreso, la discriminación por etnia, género u orientación sexual, por la diferencia entre el capital cultural de un niño que creció en una familia acomodada y uno que lo hizo en un hogar vulnerable. Y segundo,

– 117 –

como un llamado a la acción coordinada entre ellos para efectuar colaborativamente propuestas de cambio en la estructura social y política que les permitan crear una sociedad más justa. Los desarrolladores que utilicen métodos como el FSM pueden aprovechar la posibilidad de controlar con mayor precisión la dimensión expresiva de la inteligencia artificial, ya que pueden programar el comportamiento de los NPC para exhibir y poner en valor conductas que muestren buenos resultados cuando se prioriza la acción colectiva, la colaboración, el cuestionamiento por sobre la iniciativa personal, la competencia y las decisiones basadas en instintos. Es cierto que el jugador probablemente pierda el interés si los patrones se repiten, pero también opera como reforzamiento y normalización de acciones loables y replicables en un mundo de ficción que interpela al mundo real. Para lograr mejores resultados sería recomendable que los otros elementos de la narrativa guionizada se refieran en forma directa o indirecta a cuestiones que sostienen la injusticia de la estructura social, de tal manera de asociar escenarios similares a los que excluyen a los jóvenes y las conductas necesarias para afrontarlos. Una opción es la planteada por Schulzke (2014), quien defiende las narraciones distópicas como más estimulantes para propiciar pensamiento crítico ya que llevan al extremo problemáticas sociales y políticas actuales. Si se usa otro método como el MCST u otro bio-inspirado, la pérdida del control sobre el valor expresivo de los comportamientos que se generen para los NPC y los jugadores artificiales es compensando con la mayor vinculación que puede generar con los usuarios. Es probable que al implementar estas técnicas sea difícil diferenciar entre un personaje manejado por un ser humano y otro manejado por la máquina (Lara-Cabrera et. al., 2015). Considerando que la reflexión en torno a los videojuegos se tiende a manifestar en la interacción y el diálogo con otras personas en forma online y offline (Penix-Tadsen, 2016), sería verosímil pensar que la IA en un futuro podría propiciar instancias de comunicación y vinculación afectiva en donde un jugador no-humano se comunique con el usuario y le sugiera preguntas que inciten a la reflexión política durante la partida, a propósito de los acontecimientos que están ocurriendo en el juego.

– 118 –

Conclusión El videojuego como medio de comunicación tiene el rol de contribuir a la formación ciudadana de los jóvenes y a poner en valor el pensamiento crítico y la acción colectiva, potenciando el rol que históricamente ha cumplido este grupo: cuestionar el status quo y ofrecer nuevas alternativas de sociedad (Canales, Ghiardo y Opazo, 2015). Y para cumplir ese fin, la narrativa guionizada diseñada por los desarrolladores, y que es estructurada en parte por la inteligencia artificial, juega un papel fundamental. Referencias bibliográficas Aarseth, E. (1997). Cybertext: perspectives on ergodic literature. Baltimore and London: The Johns Hopkins University Press. Calleja, G. (2009). Experiential Narrative in Game Environments. En Conference DiGRA Breaking new ground: innovation in games, play, practice and theory. Londres, Inglaterra: Universidad de Brunel. . (2011). In-Game. From immersion to incorporation. Londres, Inglaterra: MIT Press. Canales, M., Ghiardo, F. & Opazo, A. (2015). Para un concepto de juventud. En Cottet, P. (Ed.), Juventudes. Metáforas del Chile contemporáneo (47-67). Santiago, Chile: Ril Editores. Chaslot, G., Bakkes, S., Szita, I. & Spronck, P. (2008, october). Monte-Carlo Tree Search: A New Framework for Game AI. En AIIDE. Frasca, G. (2001). Videogames of the oppressed: videogames as means fo critical thinking and debate (Tesis de Magíster, Georgia Institute of Technologya). Recuperado de . . (2003). Simulation versus narrative. En: The video game theory reader. Wolf, M. & Perron, B. (Eds.). Nueva York y Londres: Routledge. Genette, G. (1972). Figures III. París, Francia: Editions du Seuil. Herman, D. (2009). Basic elements of narrative. Chichester, Inglaterra: WileyBlackwell. Hopenhayn, M. (2008). Inclusión y exclusión social en la juventud latinoamericana. Pensamiento iberoamericano, (3), 49-71. Juul, J. (2001). Games telling stories? Game Studies 1 (1). Recuperado de

– 119 –

Lara-Cabrera, R., Nogueira, M., Cotta, C. & Fernández, A.J. (2015). Optimización en videojuegos: retos para la comunidad científica. Lou, H. & McArdel, S. (28 de agosto de 2017). AI in Video Games: Toward a More Intelligent Game. [Blog] Special Edition on Artificial Intelligence, Harvard University. Recuperado de . Martín-Barbero, J. (2010). De los medios a las mediaciones. Comunicación, cultura y hegemonía (6a ed.). Barcelona, España: Anthropos. Mateas, M. (2003). Expressive AI: Games and artificial intelligence. En Conference DiGRA Level Up. Utrecht, Países Bajos: Utrecht University. Moreno, I. (2002). Musas y Nuevas Tecnologías. El relato hipermedia. Barcelona, España: Paidós. Murray, J. (1997). Hamlet on the Holodeck: The Future of Narrative in Cyberspace. New York, NY: Free Press. Penix-Tadsen, P. (2016). Cultural code: videogames and Latin America. Londres, Inglaterra: The MIT Press. Planells, A. (2013). La emergencia de los Game Studies como disciplina propia: investigando el videojuego desde las metodologías de la Comunicación. Historia y Comunicación Social, 18, 519-528. Rossi, L. S. R. (2018). Un mapa de los estudios latinoamericanos y españoles sobre videojuegos. Observatorio (OBS), 12 (1), 147-168. Ryan, M. L. (2003). Narrative as virtual reality: immersion and interactivity in Literature and Electronic Media. The Johns Hopkins University Press. Schulzke, M. (2014). The critical power of virtual dystopias. Games and Culture, 9 (5), 315-334. Yannakakis, G. N. & Togelius, J. (2015). A panorama of artificial and computational intelligence in games. IEEE Transactions on Computational Intelligence and AI in Games, 7 (4), 317-335.

– 120 –

Jóvenes, inteligencia artificial y educación

Presentación de la temática: oportunidades y desafíos de la inteligencia artificial en los sistemas educativos formales e informales andrés lombana-bermúdez, universidad de harvard ezequiel passeron, faro digital

Los sistemas y herramientas de inteligencia artificial (IA) para la educación y el aprendizaje de niños, niñas y jóvenes ya están aquí y han llegado para quedarse. Sistemas de tutoría inteligente, robots de enseñanza, evaluaciones automatizadas de aprendizaje y juguetes interactivos autónomos han sido probados e implementados desde la década de 1990. Particularmente en el campo del aprendizaje en línea, redes sociales y los mundos virtuales, estos avances han alcanzado una escala global. Los MOOCs (cursos abiertos masivos en línea - Massive Open Online Courses por su nombre en inglés), por ejemplo, utilizan varias de las tecnologías de IA para prestar servicios educativos a jóvenes que se conectan a Internet desde todos los rincones del mundo. La IA, en relación a la educación y el aprendizaje, presenta un sinfín de desafíos y oportunidades. Por un lado, las promesas de los sistemas de IA son similares a las que caracterizaron el discurso de difusión de las tecnologías de información y comunicación (TIC) como computadoras e Internet en el último cuarto del siglo XX. Promesas de democratización del conocimiento, inclusión educativa y de mejora en los procesos de aprendizaje en la escuela, la universidad y el hogar, hacen parte del discurso que ha impulsado la difusión de las TIC a nivel nacional, regional y global. El discurso sobre IA, particularmente, hace énfasis en que estas tecnologías cerrarán las brechas de cobertura y de logros educativos, mejorarán la calidad de la educación y revolucionarán los procesos de aprendizaje en todos los niveles del ecosistema educativo, desde jardines de infantes (kindergarden) hasta la universidad, pasando por la escuela primaria y secundaria, y atravesando los ámbitos formales e informales.

– 123 –

Por otro lado, la difusión e implementación de la IA a gran escala puede ampliar las brechas digitales existentes en términos de acceso a tecnología, desarrollo de habilidades y beneficios de uso. Dadas las condiciones de producción, desarrollo y consumo de las tecnologías de IA es muy probable que jóvenes pertenecientes a ciertas clases sociales, razas y géneros confronten situaciones de desventaja a la hora de acceder y utilizar sistemas y herramientas de IA para su aprendizaje. Por ende, es necesario investigar el impacto de la IA en la vida de los jóvenes y en los sistemas de aprendizaje (formales e informales). Esta cuestión excede la elección o no de los responsables del sistema educativo, ya que es un hecho fáctico que la sociedad (y en especial los niños, niñas y jóvenes) está ya interactuando con estas innovaciones. El objetivo de esta sección es precisamente explorar el impacto de los sistemas y herramientas de IA en la educación y aprendizaje de los niños, niñas y jóvenes, desde diferentes perspectivas y disciplinas, y motivar la discusión sobre las oportunidades y desafíos que estas innovaciones tecnológicas representan para la sociedad y las nuevas generaciones. Los tres capítulos que presentamos a continuación abordan, desde diferentes perspectivas, algunas de las transformaciones que la educación y el aprendizaje están teniendo en contextos latinoamericanos. Varias de las preguntas que los autores responden son: ¿Qué nuevas habilidades desarrollan los jóvenes, niños y niñas al interactuar con sistemas IA? ¿Qué tipo de innovaciones pedagógicas emergen cuando la IA es implementada en contextos de aprendizaje formal e informal? ¿Puede el aprendizaje personalizado con sistemas de IA democratizar el acceso a la educación? ¿Cuáles son sus desafíos? ¿Cuáles son sus oportunidades? En «Alfabetización Digital», Cristóbal Alcázar reflexiona sobre las nuevas habilidades y formas de pensar que surgen con la evolución y apropiación de las TIC y, en particular, de las computadoras y el software. Su reflexión deja ver la importancia de promover el pensamiento computacional en los sistemas educativos, como estrategia para evitar que las brechas digitales continúen expandiéndose en América Latina. Enfocándose en los resultados de la investigación Kids Online Brasil y en las desigualdades sociales, Luísa Adib Dino y Fabio Senne analizan en «Plataformas digitales y aprendizaje» cómo

– 124 –

las disparidades socioeconómicas afectan el acceso a las TIC y a las aplicaciones de IA, así como también el desarrollo de actividades y habilidades digitales en niños y adolescentes. Finalmente, en «Inteligencia artificial para mejorar el aprendizaje y la retención en B@UNAM», Jackeline Bucio, Omar Terrazas, Guadalupe Vadillo y Francisco Cervantes presentan un caso de estudio acerca del sistema de tutoría inteligente que vienen desarrollando en la plataforma del bachillerato en línea de la Universidad Nacional Autónoma de México (UNAM). Su análisis permite apreciar, de primera mano, los retos y posibilidades que investigadores, ingenieros y diseñadores deben confrontar a la hora de implementar la IA para promover el aprendizaje personalizado, la automatización de procesos pedagógicos y escalar el acceso a contenidos educativos. Surge como fundamental continuar en el análisis de la apropiación y difusión de la IA, y su compleja relación con la educación y los jóvenes, para darle un abordaje integral y determinar cuáles son los caminos y estrategias para evitar el ahondamiento de las desigualdades sociales, con el objetivo de que las tecnologías digitales de IA sirvan para la inclusión social y no para la exclusión de determinados grupos. En el horizonte debe estar la meta de formar personas con capacidades críticas y reflexivas respecto de estas herramientas, que puedan no sólo hacer un uso de ellas en pos del desarrollo personal de los individuos y las comunidades, sino que también puedan participar del diseño e implementación de estos sistemas de IA.

– 125 –

Alfabetización digital, pensamiento computacional y programación literaria cristóbal alcázar, banco central de chile

El presente capítulo busca destilar el concepto de alfabetización digital en ideas que fueron formuladas con anterioridad al realce de los últimos años respecto a las tecnologías digitales. Estas ideas, que son las del pensamiento computacional (año 1996) y la programación literaria (año 1984), en el contexto de hoy tienen la especial oportunidad de ser abrazadas y concretadas por nuestros sistemas educativos. Introducción El experto en educación Sir Ken Robinson comentó, en una oportunidad, cómo la tecnología desde tiempos inmemorables ha acompañado al ser humano en la expansión de sus conocimientos. Más importante aún, cómo su capacidad transformadora ha influido en la manera en que pensamos, nos expresamos y observamos el mundo. Esto, sin duda, ha sido uno de los grandes catalizadores en los avances de nuestra especie y en nuestra adaptación al mundo. Hace un par de años, los cambios que la tecnología impulsaba en la sociedad tardaban en arribar a Latinoamérica. Cuando éstos llegaban ya se contaba con la experiencia previa de países de Norteamérica o Europa. En la actualidad esta situación cambió debido al alto grado de interconectividad entre las regiones del mundo, la propagación de los sistemas autónomos en productos y servicios de uso personal o industrial, sumado a la aceleración significativa que las tecnologías digitales imprimen a las transformaciones económicas y sociales. En consecuencia hoy en día en Latinoamérica enfrentamos muchos de los grandes desafíos que están ocurriendo en el mundo, pero sin mayores antecedentes o habilidades para aprovecharlos oportunamente.

– 127 –

Estos desafíos tienen impacto en nuestras sociedades, ya sea en forma de oportunidades o riesgos. Pensemos en los sistemas descentralizados de transporte y logística que están operando prácticamente en todo el mundo. Por un lado, estos presentan riesgos como la obsolescencia de medios de transporte tradicionales que provocarían la desaparición de miles de puestos de trabajo. Pero, por otro, conllevan nuevas oportunidades para los pequeños negocios de servicios, los que ahora pueden incorporar sistemas de entrega a un costo reducido, a través de plataformas con tecnología impensada para ellos un par de años atrás. Sin embargo, entender y participar de estos cambios de modo activo requiere de nuevas habilidades como la formulación de problemas, cuales deben comenzar a desarrollar nuestras juventudes latinoamericanas para alfabetizarse digitalmente y enfrentar los nuevos escenarios cambiantes. En la primera sección del capítulo se introduce la idea de pensamiento computacional y de qué habilidades se trata. Luego se continuará explorando ideas encontradas en un paradigma de programación que nos entrega una forma de verbalizar este pensamiento y utilizarlo como medio para cultivar otras habilidades y también explorar nuevas formas de expresión. Finalmente se concluye vinculando ambas ideas con las oportunidades y desafíos de las juventudes en Latinoamérica. Nuevas formas de pensar El desarrollo y estudio de habilidades en programación, estructuras de datos y algoritmos implica la gestación y maduración de una forma de pensar conocida como pensamiento computacional. Este término fue acuñado en los años 90 por Seymour Papert (Papert, 1996), quien fue pionero en promover que los niños exploren y experimenten conceptos abstractos usando computadores. Posteriormente fue popularizado en el artículo «Computational Thinking» (Wing, 2006), en donde se emplea el término como una abreviación de pensar como un científico de la computación y constituye una habilidad que es promovida en el artículo como fundamental para el siglo XXI, que debería investir el mismo estatus que habilidades como la aritmética, la escritura y la lectura.

– 128 –

Para entender el alcance del pensamiento computacional es útil analizarlo desde dos objetivos. Uno de corto plazo, que es el de dotarnos de capacidades para utilizar los recursos computacionales a nuestro alcance en la realización de tareas donde el computador puede ser un aliado poderoso. Y uno de largo plazo, el de buscar moldear el pensamiento para reforzar o crear habilidades potenciadoras de otras. De éstas hay que destacar dos que son de gran interés: la formulación de problemas y la resolución computacional de éstos. Para que un computador pueda llevar a cabo una tarea requiere de instrucciones precisas respecto a lo que se quiere computar y del orden en que éstas deben ser ejecutadas. La formulación de problemas consiste en abstraer elementos que sirven para pensar los distintos aspectos del problema, con el objetivo de encontrar una representación útil para su descripción y tratamiento. Esta habilidad es vital al momento de escribir programas y para la vida en general, por la simple razón que los problemas de la vida rara vez vienen acompañados de instrucciones sobre cómo pensarlos y representarlos. Por otro lado, si queremos una solución computacional, los elementos que componen la representación deben ser traducidos a códigos. No obstante, la verdadera importancia, desde el objetivo de largo plazo del pensamiento computacional, radica en el proceso de desarrollo más que en la implementación de la solución. Durante este proceso se debe abordar el problema desde los distintos elementos que conforman la representación. Se aprende a diseñar y desarrollar sistemas, a elaborar la solución de forma incremental, es decir, resolver primero una funcionalidad específica para luego ir incorporando características adicionales que irán refinando de forma gradual y controlada la solución. Además de esto, se pone en práctica la habilidad de establecer supuestos pertinentes para lidiar con información parcial o escenarios estocásticos, comparando las ventajas y desventajas de diferentes métodos, o en palabras de Jeannette Wing, a interpretar el código como dato y los datos como códigos (Wing, 2006). Así como habituarse a cometer errores cuando se programa y a diagnosticarlos efectivamente para su solución, a programar de manera defensiva entrenando la capacidad de proyectar posibles comportamientos anómalos y poder aislarlos para no afectar

– 129 –

otros componentes del sistema, entre varios aspectos valiosos que ocurren durante el proceso. El pensamiento utilizado y desarrollado detrás de estos procesos es fundamental para enfrentarnos a situaciones desconocidas como los escenarios planteados por el rápido avance de las tecnologías digitales en los últimos tiempos. Emplear el pensamiento computacional nos entrega herramientas efectivas para plantear problemas y así enfocarnos en modos creativos e innovadores de resolverlos. Antiguamente, la barrera para expresar el pensamiento computacional era alta, pero hoy en día esta barrera disminuye cada vez más gracias a la reducción del costo de los computadores, el aumento de cobertura de servicios de Internet, el auge de los lenguajes de programación de alto nivel y la incorporación de miembros con perfiles más diversos en las comunidades de tecnología. Es oportuno destacar los avances en los lenguajes de programación de alto nivel que, en términos simples, corresponden a aquellos cuya sintaxis se encuentra más cercana al lenguaje humano que al lenguaje máquina. En los últimos tiempos, estos avances han significado una suavización de las curvas de aprendizaje en programación debido a que han eliminado la dependencia de altos conocimientos técnicos y otras complejidades para poder implementar programas, logrando un acceso rápido a la práctica de programar y estar expuesto a las grandes ideas de las ciencias de la computación. Otro punto que ha facilitado el desarrollo del pensamiento computacional es la mayor diversidad de perfiles en los miembros de comunidades tecnológicas. Un ejemplo de esta mayor diversidad es la comunidad del sitio de preguntas y respuestas sobre problemas de programación Stackoverflow. En la encuesta de desarrolladores del año 2018 realizada por el sitio, respondieron más de 100.000 personas de diferentes países1. Se hizo una pregunta dirigida a los encuestados con educación universitaria, en la que se solicitó que indicaran el área de la carrera que estudiaron. Como es de esperar, la mayoría de los participantes estudió carreras relativas a la computación. Sin embargo, no deja de ser impresionante que el 27,2% de las respuestas corresponda a carreras universitarias de áreas no relacionadas de forma 1

Sitio con los resultados de la encuesta Developer Survey: .

– 130 –

directa con programación como contabilidad, finanzas, marketing, sicología, ciencia política, biología, entre otras2. La contribución de estos nuevos perfiles es múltiple para el pensamiento computacional, pero destaca con mayor relevancia la proliferación de habilidades en programación por estos nuevos miembros en áreas no habituadas al uso de la programación. De esta forma, inviste a esta habilidad de un carácter transversal necesario para estos tiempos. ¿Esto significa que todos debemos ser programadores? Mitchel Resnick, en su libro Lifelong Kindergarten (Resnick, 2017), responde esta interrogante con una analogía vinculada con la escritura, señalando que no aprendemos a escribir para transformarnos en novelistas o periodistas, sino que el propósito de aprender a escribir es que seamos mejores pensadores. Asimismo, el valor de programar no radica en que todos seamos científicos en computación o programadores, sino en el desarrollo de nuevas formas de pensar y expresarse. Nuevas formas de expresión Imaginemos una clase en que todos los estudiantes disponen de un computador, el profesor realiza su taller y los alumnos pueden tomar notas desde sus equipos. En este escenario enfoquémonos en cómo se utiliza el editor de texto para registrar la información en el ámbito del aprendizaje. En comparación con tomar notas en un cuaderno tradicional, los alumnos pueden utilizar en su documento las herramientas que entrega cualquier editor de texto moderno, como agregar listas, crear tablas, adjuntar imágenes y videos. Además, si el taller de clases dispone de conexión a Internet los alumnos pueden utilizar el buscador web para complementar la materia dictada por el profesor buscando definiciones de conceptos o agregando hipervínculos de artículos encontrados en Internet que refuerzan alguna de las ideas expuestas. A pesar de las herramientas mencionadas, si el profesor realiza un cálculo matemático en la pizarra, no es de extrañar que la mayoría 2

El porcentaje se obtiene de los resultados de la pregunta Undergraduate Major, sección All Respondents, a partir de la suma de todas las categorías, con excepción de: «Computer science, computer engineering or software engineering», «Information systems, information technology, or system administration» y «I never declared a major».

– 131 –

de los estudiantes enfrente un pequeño desafío desde el punto de vista del registro de la información en sus apuntes. Una manera de superar el desafío es anotando el resultado del cálculo e ir describiendo la operación con palabras o mezclando símbolos matemáticos y palabras. Si el cálculo correspondiera a una función y el profesor utiliza un gráfico para mostrar a los alumnos cómo se comporta la función para diferentes valores de entrada, utilizar cuaderno y lápiz se transforma en la mejor alternativa de registro para la mayoría, porque les otorga la flexibilidad de dibujar símbolos y gráficos en vez de usar el editor de texto del computador para el mismo propósito. Hay una ironía detrás de este tipo de situaciones. Incluso cuando disponemos de un computador nos resulta difícil utilizarlo para computar tareas en las que estas máquinas son realmente buenas, como la de obtener los diferentes valores que arroja una función. Y nos resulta aún más difícil integrar los resultados de manera natural dentro del documento. Ideas que nos sirven para disminuir la brecha cognitiva descrita en la situación anterior e incorporar al computador para la solución de problemas, las podemos hallar en un paradigma de programación llamado literate programming (Knuth, 1984), el que establece que el diseño y acto de escribir programas computacionales se debe enfocar en explicar a los seres humanos lo que se quiere realizar con el computador, en vez de sólo pensar en las instrucciones que éste ejecutará. Esto en concreto significa que el proceso de creación de un programa habita dentro de un documento en que coexisten texto y código computacional. El primero se encarga de entregar información acerca del contexto, el objetivo y el «por qué» detrás del código, mientras que el segundo guía la interpretación de las explicaciones del texto a través de instrucciones inequívocas que serán ejecutadas por el computador. Por último, hay que destacar que la línea de desarrollo del documento responde a las necesidades e intenciones que el autor busca impregnar con el texto. Y no a una subordinación impuesta por el orden de ejecución del código que es demandado por la máquina. Este punto es crucial, a diferencia de los programas tradicionales, pues el código en este tipo de documentos actúa complementando al texto en vez de restringirlo a sus términos.

– 132 –

¿Qué tienen que ver estas ideas con las habilidades que deben tener las juventudes? Primero, el concepto de un documento en el que coexisten texto y código computacional es una herramienta poderosa para desarrollar y verbalizar el pensamiento computacional. En el ejemplo de los alumnos, computar la operación sería algo sencillo si pueden recurrir a un lenguaje de programación que se encuentre integrado en el documento y así utilizar el computador para calcular los valores y crear el gráfico. Segundo, es importante destacar la simbiosis existente entre el desarrollo del texto y los descubrimientos que se pueden obtener en el desarrollo del programa. ¿Estamos limitados a los valores dados en el ejemplo del profesor? Los alumnos pasan de cumplir un rol de escribanos a desempeñar un rol más activo, el que los incentiva a experimentar con distintos valores y variantes de la función. El código no actúa sólo de cómplice dentro del documento sino además genera inquietudes y contenidos que guían el razonamiento del autor y terminan plasmados en texto. El científico Stephen Wolfram se refiere a estos documentos con el nombre de «ensayos computacionales» (Wolfram, 2017). Como en el ejemplo discutido, destaca el rol de estos ensayos como un nuevo medio de aprendizaje y expresión para que estudiantes realicen trabajos o tomen notas. Sumado a esto, habla de la oportunidad característica de estos ensayos de incorporar elementos dinámicos a través de la programación como menús desplegables, gráficos interactivos, videos, aplicaciones, etcétera. Estos elementos pueden emplearse para enriquecer la comunicación y experimentar nuevas formas de interacción entre autor y lector. En la actualidad existen varios programas en los que se pueden implementar las ideas discutidas, estando entre los más conocidos Jupyter notebooks, Rnotebooks, Observable notebooks y Mathematica notebooks. Sin embargo, todavía queda mucho trabajo en cómo promover y difundir el uso de este tipo de documentos, mejorar la integración de múltiples lenguajes de programación, investigar qué elementos dinámicos son útiles y en qué situaciones, disponer de mejores herramientas de edición y, sobre todo, en cómo vinculamos estos documentos a la verbalización del pensamiento computacional.

– 133 –

Conclusiones En los próximos años, los avances en sistemas autónomos remplazarán cada vez más los trabajos que involucren tareas repetitivas. Esta realidad futura demandará las habilidades que conllevan cultivar y ejercer el pensamiento computacional para interactuar, complementar y enriquecer el trabajo realizado por los sistemas autónomos, además de prepararnos para los nuevos roles que no sabemos con exactitud en qué consistirán. El pensamiento computacional empoderará a los jóvenes no sólo para afrontar desafíos asociados con los cambios tecnológicos, sino que les entregará habilidades para pensar e implementar soluciones creativas e innovadoras a problemáticas ya presentes que todavía se encuentran a la espera de ser solucionadas. Sin embargo, debemos preocuparnos sobre a la promoción y enseñanza de estas habilidades en nuestros sistemas educativos. Necesitamos de iniciativas efectivas en Latinoamérica para desarrollar programas educativos y gente capacitada para entregar este tipo de enseñanzas. No debemos caer en el reduccionismo, como en veces anteriores, de sólo enseñar instrucciones para resolver una tarea en el computador, sino que desarrollar e integrar el pensamiento computacional de manera transversal en la educación. Sólo de esta forma todos los jóvenes tendrán las oportunidades de estar expuestos a la alfabetización digital y crear sociedades más inclusivas, en donde todos tengamos la preparación adecuada para participar y aprovechar las oportunidades presentadas por los avances de los sistemas autónomos y las tecnologías digitales, y no ser desplazados por éstos. Los ensayos computacionales son una herramienta fundamental para materializar el pensamiento computacional a través de su verbalización, revolucionando el texto tradicional y desafiando a los jóvenes a construir y explorar implementaciones concretas de los conceptos e ideas que se encuentren aprendiendo. De esta forma, el pensamiento computacional es un elemento transformador al potenciar los procesos de aprendizaje. Recordemos que no sabemos lo que deparará el futuro, por eso la obligación de preparar a nuestras juventudes con las habilidades que permitan diseñar y cultivar otras.

– 134 –

Referencias bibliográficas Knuth, D. (1984). Literate Programming. The Computer Journal, Vol. 27, Issue 2, 1, January 1984, pp. 97-111. Papert, S. (1996). An Exploration in the Space of Mathematics Educations. International Journal of Computers for Mathematical Learning Vol. 1, N° 1, pp. 95-123. Resnick, M. (2017). Lifelong Kindergarten. Cultivating Creativity through Projects, Passion, Peers, and Play. MIT Press. Wing, J. (2006). Computational Thinking. CACM, viewpoint, Vol. 49, N° 3, pp. 33-35. Wolfram, S. (2017). What is a Computational Essay? Stephen Wolfram blog.

– 135 –

Inteligencia artificial para mejorar el aprendizaje y la retención en B@UNAM: necesidades, preguntas y desafíos jackeline bucio, omar terrazas, guadalupe vadillo y francisco cervantes, universidad nacional autónoma de méxico (unam). The ultimate goal of the field of Artificial Intelligence in Education is not to promote artificial intelligence, but to promote education1. Ryan Baker

El bachillerato a distancia de la Universidad Nacional Autónoma de México (B@UNAM) inició el desarrollo de un sistema de tutoría inteligente (STI) llamado ADA (asistente de aprendizaje), cuyo propósito es apoyar al asesor (o profesor en línea) en la resolución de dudas que los estudiantes plantean con frecuencia, para que el docente pueda centrarse en la atención personalizada y la promoción de aprendizajes profundos. Por otro lado, también se intenta analizar diversas fuentes de información generada en la plataforma de estudio, con el objeto de atender de manera personalizada las necesidades específicas de cada estudiante. La primera fase de este STI es el desarrollo de Hadita, chatbot que pretende interactuar con los estudiantes para proporcionarles orientación, información y apoyo cuando el asesor humano no se encuentra disponible. Se describen en este capítulo las necesidades que han dado origen a este proyecto, así como las preguntas que lo guían y los desafíos que plantea para un sistema de educación en línea de nivel medio superior. Introducción El uso de la inteligencia artificial (IA) en la educación plantea una gran cantidad de posibilidades, al mismo tiempo que muchas preguntas y desafíos. Así como una mayor cantidad de dispositivos electrónicos no mejora automáticamente el aprendizaje, ni un mejor ancho de banda 1

El objetivo de la Inteligencia Artificial en el campo de la educación no es promover la inteligencia artificial, sino promover la educación. (Traducción del editor)

– 137 –

elimina por sí solo las brechas de acceso a la educación, con respecto a la IA nos encontramos en un momento de búsqueda del equilibrio entre una gran oportunidad de análisis de datos, personalización y automatización de procesos, y aquello que es realmente efectivo y ético para aprender mejor en un contexto determinado. Si bien la IA ofrece la posibilidad de llegar a más personas, de escalar las ofertas y de proporcionar a cada estudiante lo que requiere, ¿cómo podemos asegurar que esto se realizará bajo los mejores criterios de calidad y pensando primero en el beneficio de los estudiantes y no en tendencias creadas por proveedores de tecnología? Desde B@UNAM hemos comenzado un camino de reflexión a partir de la decisión de construir un sistema de tutoría inteligente que apoye el aprendizaje de los estudiantes2. El sistema actual de asesoría y tutoría en B@UNAM B@UNAM es el bachillerato en línea de la Universidad Nacional Autónoma de México (UNAM). Inició operaciones en 2007 con la intención de atender a mexicanos fuera del país que desearan realizar sus estudios de nivel medio superior y que pudieran desarrollar y reafirmar sus lazos culturales con nuestro país. La UNAM lo ofrece de manera directa en el extranjero y en algunos proyectos especiales en México. En México también es posible cursarlo a través de varios estados y algunas universidades públicas que se interesaron por ofrecerlo y certificar los estudios. El programa tiene actualmente 7,230 estudiantes vigentes y han egresado un total de 7.644. Debido a que existe una variabilidad en la aplicación del modelo de gestión, hay diferencia en las tasas de egreso por sede: desde 16% en un proyecto afectado por decisiones de carácter político, hasta 60% en un proyecto en el que la UNAM tuvo el control total de la gestión. La tasa de egreso promedio es de 30%. Dos figuras acompañan al estudiante de manera cercana: un asesor (experto disciplinario) y un tutor (acompañamiento motivacional y psicopedagógico). Los asesores tienen a cargo un grupo de 30 estudiantes que atienden en línea durante un mes. Los contenidos y la interacción se concentran en un LMS (MOODLE) y, con respecto a la 2

Proyecto PAPIME PE407118.

– 138 –

atención que proporcionamos, una de las principales preocupaciones es el tiempo de respuesta a las preguntas de los estudiantes. Nuestra población en el extranjero se encuentra distribuida a lo largo de 44 países, así que los distintos husos horarios pueden complicar el ritmo de la comunicación. Un asesor compromete 30 horas semanales de trabajo con un grupo y con frecuencia esta atención se distribuye en dos periodos de ingreso a la plataforma: alrededor de dos o tres horas por la mañana y el equivalente por la tarde o noche. Para nuestros estudiantes más jóvenes, una o dos horas como tiempo de respuesta parece ser una eternidad, mientras que para nuestros adultos-jóvenes dos horas pueden significar el periodo de comida o de descanso del que disponen en medio de la jornada laboral y no habrá otro momento para dedicarlo al estudio. ¿Puede la IA ayudarnos a aprovechar el tiempo que pasan nuestros estudiantes en la plataforma a través de una mejora en la rapidez y calidad de nuestras respuestas y retroalimentaciones? Algunas de las posibilidades de la IA en la educación Actualmente, para lograr dar a cada estudiante lo que necesita en el momento que lo requiere, existen múltiples ejemplos donde la tecnología está logrando ampliar el potencial humano. Los sistemas de tutoría inteligente (STI) proporcionan caminos de aprendizaje altamente personalizados que incorporan técnicas de AI para establecer qué es lo que un estudiante ya conoce y qué es lo siguiente que necesita saber «Lo que hace que un STI sea inteligente es su habilidad para adaptarse a estudiantes individuales. Monitorear procesos de aprendizaje y comparar un modelo de estudiante con un modelo experto puede determinar los temas que un aprendiz enfrenta con dificultad, cuándo requiere ayuda y cuándo puede iniciar el siguiente tema» (Karaci, 2018). Desde B@UNAM hemos seguido de cerca cuatro proyectos que emplean variantes de IA en la educación: PAM es la plataforma adaptativa de matemáticas de Plan Ceibal, en Uruguay. Es un STI que funciona a partir de series de ejercicios, cuyos resultados permiten sugerir áreas particulares de mejora dependiendo de las habilidades matemáticas del estudiante. Con datos de distintas fuentes, como los registros de la actividad del usuario, las calificaciones y los errores cometidos, se estudia el efecto de diversos

– 139 –

factores en el rendimiento y la respuesta de los estudiantes. Con el uso de ésta y otras herramientas, esta iniciativa nacional pretende lograr un «perfil de 360 grados del estudiante» para conocerlo y ayudarlo mejor (Aguerrebere, Cobo, Gómez y Mateu, 2017). Por otro lado, el proyecto OnTask, bajo el liderazgo de la Universidad de Sidney, en colaboración con otras universidades australianas, la Universidad de Texas (Arlington) y la Universidad de Edimburgo, propone una herramienta que se integra con diversas fuentes y puede recopilar datos sobre las actividades e interacciones de los estudiantes con los contenidos educativos propuestos en una plataforma determinada. A partir de ello permite el envío de comentarios personalizados con estrategias de aprendizaje que los estudiantes pueden aplicar de inmediato. El sistema recibe datos sobre la visualización de videos, realización de evaluaciones, libros de texto electrónicos, foros de discusión, etcétera. Los docentes, en conjunto con los diseñadores instruccionales, pueden usar esta herramienta para analizar grandes conjuntos de datos e implementar acciones concretas para apoyar el aprendizaje. Pardo destaca la relevancia de «factores importantes de mediación, como el papel del instructor y la necesidad de considerar cambios en conocimiento, creencias, actitudes, estrategias y tácticas en el aprendiz como la meta última del proceso» (2018: 436). OnTask basa su modelo en la relevancia de acciones o retroalimentaciones personalizadas (personalized learning support actions, PLSA), punto muy difícil de escalar únicamente a partir del factor humano, pero que se logra con el uso de esta herramienta (Pardo, Bartimote-Aufflick, Buckingham Shum, Dawson, Gao, Gašević y Vigentini, 2018). Otro ejemplo es el de Jill Watson, asistente virtual desarrollada por el Georgia Institute of Technology en 2015 con el propósito de usar técnicas de IA para ayudar en la atención de un curso en línea, justamente sobre inteligencia artificial. Jill Watson fue presentada a los estudiantes como una tutora más del staff y respondió casi perfectamente las preguntas frecuentes en el foro de discusión. Con cada nueva iteración, el rendimiento ha mejorado y ha interactuado con cerca de mil estudiantes (Goel y Joyner, 2015; Goel y Polepeddi, 2016; Goel y Polepeddi, 2019).

– 140 –

Finalmente, el cuarto caso que hemos seguido es el MathSpring, un STI desarrollado en la Universidad de Massachusetts, en Amherst. MathSpring utiliza agentes pedagógicos virtuales (APV) que van guiando al estudiante a través de problemas en el área de matemáticas. El estudiante puede personalizar al agente pedagógico que lo acompaña, con lo que se logra una semejanza física. MathSpring se puede usar de manera individual, pero recientemente se ha probado su uso de forma colaborativa, es decir, un par de estudiantes interactúa con un solo chatbot (APV) con el objetivo de contrarrestar el desinterés o aburrimiento del trabajo individual en la clase de matemáticas (Arroyo, Wixon, Allessio, Woolf, Muldner y Burleson, 2017). Estas propuestas de integración de IA a través de STI, chatbots y APVs están demostrando mejoras en cuanto a calidad de la interacción, tiempo de respuesta y la información sobre el desempeño que se proporciona a los estudiantes, lo cual contribuye positivamente a su permanencia y egreso. También conllevan una mejora notablemente significativa en el aprovechamiento (Pardo, 2017; Kulik y Fletcher, 2016; Stott y Hattingh, 2015; Dermeval, Paiva, Bittencourt, Vassileva y Borges, 2018) e incluso algunos estudios reúnen evidencia para afirmar que los ITS pueden ser tan eficaces como la tutoría humana (Cole, Buchenroth-Martin, Weston, Devine, Myatt, Helding y Ward, 2018), o aun mejores (Serrano, Vidal-Abarca y Ferrer, 2018). Por otro lado, voces como la de Baker (2016), Brossard (2018) y Elish y Dana Boyd (2018) se han manifestado críticamente ante un escenario de automatización total, tanto por los costos y tiempo que el desarrollo de estos sistemas puede tomar, como por la parte de confusión acerca de las diferencias entre inteligencia artificial e inteligencia humana. Ante este vasto panorama nos preguntamos: ¿Cómo decidir hacia dónde van nuestros esfuerzos?, ¿cuál de estas tecnologías es la mejor para acompañar a nuestros estudiantes en el contexto B@UNAM? De las preguntas a las decisiones (o a nuevas preguntas) B@UNAM se encuentra en el momento de integración de diversas formas de IA para ofrecer acompañamiento constante y presente, 24 horas al día, con retroalimentaciones inmediatas y personalizadas que promuevan mejores aprendizajes en los estudiantes. También nos interesa recuperar más y mejor información acerca de la interacción

– 141 –

que los estudiantes tienen con los materiales, así como tiempos de respuesta de las actividades. Un primer planteamiento de tipo adaptativo fueron nuestros cursos con trayectorias, las cuales permiten identificar, por medio de un examen diagnóstico, tres niveles diferentes de nuestros estudiantes y conducirlos por actividades de nivelación semana a semana (Vadillo, 2017). Se trata de una solución que no requiere IA, pues se basa sencillamente en rutas de navegación diferenciadas, lo cual implica el diseño de tres rutas diferentes para cada semana de curso. Esta estrategia ha funcionado como apoyo a la parte de contenido, pero aún necesitamos realizar intervenciones más robustas para mejorar la comunicación y retroalimentación con los estudiantes. De acuerdo a las necesidades de B@UNAM, planteamos un sistema de tutoría inteligente que hemos denominado ADA (asistente de aprendizaje), cuya misión es apoyar al estudiante en los siguientes aspectos: •

Atender dudas de carácter académico cuando el asesor humano no está disponible. El sistema atiende las preguntas del estudiante de manera inmediata para no detener su camino de aprendizaje.



Proporcionar sugerencias logísticas o técnicas, ya que muchas de las preguntas que los estudiantes formulan están relacionadas con cuestiones de planeación, uso de plataforma, descarga de documentos, calendarización o trámites administrativos.



Ser compañero de aprendizaje para que el estudiante experimente acompañamiento con un par y comente con él estrategias que otros estudiantes han llevado a cabo para superar determinados obstáculos académicos, de organización, familiares o laborales.

Como forma de interacción con ADA, nos encontramos trabajando en el diseño de Hadita, un chatbot cuyo desarrollo comenzó con la identificación de los aspectos de máxima dificultad para los estudiantes, a partir del análisis de los mensajes entre estudiantes y asesores (correspondientes a 10 meses). Esto nos permitió precisar preguntas frecuentes que son la base del sistema de información de

– 142 –

Hadita. Aunque continuamos trabajando en mejorar la experiencia conversacional, Hadita por ahora funciona con rutas predefinidas construidas a partir de la interacción de los estudiantes y asesores. Como vimos anteriormente, dentro del diseño de los chatbots se ha puesto especial atención a la apariencia y en algunos casos se ha proporcionado animación, lo cual genera empatía con los usuarios. Para Hadita se ha decidido una apariencia etérea con la intención de no hacer énfasis en un físico, género o características específicas, sino en fomentar la imaginación de nuestros estudiantes. Hemos pensado en el uso de colores que son explicados durante la bienvenida que hace Hadita al alumno (como lo plantean Kerlyl, Hall y Bull, 2007). Algunas preguntas que nos hacemos son: ¿Cuándo debe interactuar idealmente Hadita con el estudiante?, ¿cómo hacer que el asesor humano, Hadita y los estudiantes trabajen de manera coordinada? Hasta este momento Hadita detecta el progreso, posibles contratiempos y exceso de tiempo en determinado punto del contenido o al revisar algún concepto, lo que detona una llamada a través de su interfaz. Hadita cuestiona al alumno sobre la experiencia que está teniendo con ese concepto: ¿Es buena o mala?, ¿presenta algún contratiempo o sólo se distrajo? En el caso de requerir apoyo, Hadita le brindará recursos para practicar y superar las dudas sobre el tema, problema o concepto. Para la recuperación de información acerca de la interacción que los estudiantes tienen con los materiales y una mejor retroalimentación, el uso de una herramienta como OnTask nos parece ideal, pero su integración se ha visto comprometida por el tiempo de dedicación que podemos darle. Si bien la herramienta se descarga de manera libre, nuestro equipo es pequeño y la parte de ingeniería de sistemas se ha dedicado a trabajar principalmente en Hadita. La parte técnica de ADA y Hadita se encuentra en marcha y seguimos trabajando en la parte conceptual para conocer los riesgos y posibilidades que la IA puede lograr. Sabemos que no es una solución mágica como exponen Elish y Dana Boyd (2018), y que es necesario precisar cada una de las nuevas terminologías para evitar confusiones. Por ejemplo, cuando se utilizan conceptos emergentes como machine learning, no se suele aclarar que, en esta expresión, learning no se refiere al aprendizaje tal como sucede en los humanos,

– 143 –

o como Brossard asevera: «No significa que la máquina adquiera conocimiento o sabiduría o agencia, a pesar de lo que el término aprendizaje pueda implicar». (2018: 89). Tampoco se espera lograr que la IA haga por sí sola más inteligentes a quienes entran en contacto con estos sistemas (Baker, 2016). Algunas de las preguntas que guían y dan sentido a nuestra implementación de IA en B@UNAM son: ¿Cuál es la mejor forma de hacer llegar tanto los datos como el análisis de los mismos a los propios estudiantes de tal manera que sean ellos quienes tomen decisiones a partir de esta información para mejorar sus aprendizajes?, ¿cómo hacer que los algoritmos funcionen como un sistema complementario que enriquezca el panorama del docente y lo apoye efectivamente en la toma de decisiones que realiza día a día en favor del aprendizaje de los estudiantes? Conclusiones En el trecho que llevamos recorrido de este camino de integración de IA, en B@UNAM hemos aprendido que elaborar sistemas de tutoría inteligente requiere tiempo (en grandes cantidades) y recursos, tanto materiales como económicos (Baker, 2016), así que las alianzas académicas se vuelven indispensables. Hay mucho trabajo elaborado ya por otras instituciones y la buena noticia es que en general se trata de materiales distribuidos de manera abierta o las instituciones se encuentran en ánimo de colaborar. Muestra de ello son los contactos que se han realizado con miembros del equipo de OnTask para solicitar acceso a su servidor demo, con el equipo de MathTuthor para usar algunos de sus reactivos de matemáticas y traducir algunos otros al español, con Fundación Ceibal, a través de la escuela de invierno 2017 y 2018, y con Georgia Institute of Technology para solicitar acompañamiento y retroalimentación a nuestro proyecto. En nuestro primer año de trabajo hemos realizado investigación documental, una jornada sobre ITS3, y de estudios de especialización sobre deep learning que completó uno de los ingenieros del equipo, quien también asistirá al congreso LAK19. Asemás tenemos aún por delante la versión 1.0 de Hadita y la integración de OnTask a grupos piloto. 3

.

– 144 –

Sabemos que estamos frente a innovaciones educativas que requieren equipos de trabajo especializados e interdisciplinarios, por ello nuestro equipo está conformado por tres ingenieros, una psicóloga, una lingüista, una historiadora, dos matemáticos y diseñadores web. La comunicación no siempre resulta fácil por diferencias metodológicas y de terminología, pero contemplamos la creación de un seminario permanente para seguir reflexionando, en equipo, acerca de los desafíos y de nuestras preguntas-guía para no perder la meta y lograr que ADA sea, en primer lugar, lo que los estudiantes de B@ UNAM necesitan para tener exitosas trayectorias de aprendizaje. Referencias bibliográficas Aguerrebere, C., Cobo, C., Gómez, M. & Mateu, M. (2017). Strategies for data and learning analytics informed national education policies. Proceedings of the Seventh International Learning Analytics & Knowledge Conference on - LAK ’17, 449-453. Recuperado de . Allessio, D., Woolf, B., Wixon, N., Sullivan, F.R., Tai, M. & Arroyo, I. (2018). Ella me ayudó (She Helped Me): Supporting hispanic and English language learners in a Math ITS. En Penstein Rosé, C. et al. (eds.), Artificial intelligence in Education. AIED 2018. Lecture notes in computer science, 10948. Cham: Springer International Publishing. Arroyo, I., Wixon, N., Allessio, D., Woolf, B., Muldner, K. & Burleson, W. (2017). Collaboration improves student interest in online tutoring (pp. 28-39). En André, E., Baker, R., Hu, X., Rodrigo, M. M. T. & du Boulay, B. (eds.) (2017), Artificial Intelligence in Education. Cham: Springer International Publishing. Recuperado de . Baker, R. S. (2016). Stupid Tutoring Systems, Intelligent Humans. International Journal of Artificial Intelligence in Education, 26 (2), 600-614. Recuperado de . Broussard, M. (2018). Artificial unintelligence: how computers misunderstand the world. Cambridge, Massachusetts: MIT PRESS. Ciechanowski, L., Przegalinska, A., Magnuski, M. & Gloor, P. (2018). In the shades of the uncanny valley: An experimental study of human-chatbot interaction. Future Generation Computer Systems, 1-10. Recuperado de . Cole, R., Buchenroth-Martin, C., Weston, T., Devine, L., Myatt, J., Helding, B. & Ward, W. (2018). One-on-one and small group conversations with an intelligent virtual science tutor. Computer Speech & Language, 50, 157-174. Recuperado de . Dermeval, D., Paiva, R., Bittencourt, I. I., Vassileva, J. & Borges, D. (2018). Authoring tools for designing intelligent tutoring systems: A systematic review

– 145 –

of the literature. International Journal of Artificial Intelligence in Education, 28 (3), 336-384. Recuperado de . Elish, M. C. & Dana Boyd (2018). Situating methods in the magic of Big Data and AI. Communication Monographs, 85 (1), 57-80. Recuperado de . Goel, A. & Joyner, D. (2015) Design of an online course on knowledge-based AI. Proceedings of the Sixth Symposium on Educational Advances in Artificial Intelligence (EAAI-I6). Recuperado de . Goel, A. K. & Polepeddi, L. (2016). Jill Watson: A virtual teaching assistant for online education. College of Computing Technical Reports [503]. Georgia Institute of Technology. Recuperado de . Goel, K.A. & Polepeddi, L. (2019). Jill Watson: A virtual teaching assistant for online education. En C. Dede, J. Richards & B. Saxberg (eds.), Learning engineering for online education. Theoretical contexts and design-based examples. Nueva York, NY: Routledge. Karaci, A. (2018). Intelligent tutoring system model based on fuzzy logic and constraint-based student model. Neural Computing and Applications, 1-10. Recuperado de . Kerlyl, A., Hall, P. & Bull, S. (2007). Bringing chatbots into education: Towards natural language negotiation of open learner models. in Ellis, R., Allen, T. Tuson, A. (eds.). Applications and innovations in intelligent systems XIV. SGAI 2006. London, UK: Springer. Kulik, J. A. & Fletcher, J. D. (2016). Effectiveness of intelligent tutoring systems: A meta-analytic review. Review of Educational Research, 86 (1), 42-78. Recuperado de . Liu, R., Stamper, J., & Davenport, J. (2018). A Novel Method for the In-Depth Multimodal Analysis of Student Learning Trajectories in Intelligent Tutoring Systems. Journal of Learning Analytics, 5 (1), 41-54. Recuperado de . Pardo, A. (2018). A feedback model for data-rich learning experiences. Assessment & Evaluation in Higher Education, 1-11. Recuperado de . Pardo, A., Bartimote-Aufflick, K., Buckingham Shum, S., Dawson, S., Gao, J., Gašević, D. & Vigentini, L. (2018). OnTask: Delivering Data-Informed, Personalized Learning Support Actions. Journal of Learning Analytics, 5 (3), 235–-249. Recuperado de . Serrano, M.-Á., Vidal-Abarca, E. & Ferrer, A. (2018). Teaching self-regulation strategies via an intelligent tutoring system (TuinLECweb): Effects for lowskilled comprehenders. Journal of Computer Assisted Learning, 34 (5), 515-525. Recuperado de .

– 146 –

Stott, A. E. & Hattingh, A. (2015). Conceptual tutoring software for promoting deep learning: A case study. Educational Technology & Society, 18 (2), 179-194. Vadillo, G. (2017). Arquitectura de los cursos de B@UNAM. Revista Mexicana de Bachillerato a Distancia, 17 (9), 26-31. Recuperado de .

– 147 –

Plataformas digitales y aprendizaje: indicadores sobre el acceso, actividades y habilidades digitales de niños y adolescentes en Brasil luísa adib dino y fabio senne centro regional de estudios sobre el desarrollo de la sociedad de la información (cetic)

El presente artículo considera que, al igual que ocurre con otras tecnologías adoptadas en los sistemas educativos, la inteligencia artificial tiende a afectar de forma diferente el aprendizaje y los estudiantes según las disparidades de acceso, actividades y habilidades digitales en especial en países con marcadas desigualdades sociodemográficas. Ante ello se presenta el estado del acceso a Internet en Brasil por parte de niños y adolescentes, y las implicaciones sobre las diferencias de acceso en las actividades que realizan online, en particular acerca de aquellas relacionadas con las condiciones para el aprendizaje basado en plataformas digitales. Este análisis fue elaborado considerando indicadores relevados por la investigación TIC Kids Online Brasil 2017, relativo al acceso a la red, a la calidad del acceso y a sus implicaciones para la realización de actividades online de los brasileños de entre 9 y 17 años. Este artículo pretende contribuir a las discusiones involucrando la interacción entre la juventud y las plataformas digitales basadas en inteligencia artificial, tomando en cuenta la realidad de los países marcados por desigualdades sociales. Introducción En la actualidad, una parte relevante de los procesos educativos se lleva a cabo dentro y fuera de la escuela por medio del uso de plataformas digitales. En Brasil, el 76% de los niños y adolescentes buscó informaciones en Internet para trabajos escolares, mientras que el 64% utilizó plataformas de búsqueda para temas de interés (CGI.br, 2018a). Aunque estas herramientas están cada vez más presentes en la vida de los niños y adolescentes, es muy poco evidente para ese público –y para la comunidad escolar como un todo– la constatación

– 149 –

de que tales plataformas hacen uso de inteligencia artificial (IA), o de cómo la experiencia en línea de los alumnos ha generado insumos para el perfeccionamiento de tales recursos. En la medida en que los procesos de enseñanza y aprendizaje pasan a adoptar plataformas basadas en IA, una gran cuestión (aún sin respuesta) es cómo y en qué dirección tales aplicaciones van a transformar el resultado de los sistemas educativos –o cuáles son sus potenciales beneficios y riesgos. En la medida en que los avances tecnológicos están reconfigurando el mercado de trabajo, es cada vez más necesario el debate sobre cuáles habilidades serán exigidas y cómo niños, niñas y adolescentes deben ser preparados para desarrollar y aplicar tales habilidades. Por lo tanto, la inclusión de IA en las escuelas debe considerar no una posición pasiva del alumno en los procesos de aprendizaje, sino la apropiación de recursos digitales que ayuden a la construcción de un conocimiento autónomo y personalizado, así como la comprensión sobre la lógica de funcionamiento de los sistemas de información IA, principalmente, de los algoritmos que los mantiene. En el presente artículo tratamos de argumentar que, al igual que ocurre con otras tecnologías adoptadas en los sistemas educativos, la inteligencia artificial tiende a afectar de forma distinta el aprendizaje y los estudiantes según las disparidades de acceso, actividades y habilidades digitales –en especial en países con desigualdades sociodemográficas marcadas. Respondiendo al supuesto de que el acceso universal a Internet suprimiría la «brecha» digital, la literatura sobre el uso de tecnologías de información y comunicación (TIC) expresa que la amplia provisión de acceso a la red no necesariamente elimina las disparidades entre los tipos de uso y las habilidades desarrolladas en el ámbito online. El acceso a Internet combinado con las variables de la calidad de dicho acceso, como por ejemplo la variedad de dispositivos disponibles, se refleja en diferencias que se manifiestan en el desarrollo de habilidades digitales (van Deursen y van Dijk, 2018). Considerando el punto, entendemos que la calidad del acceso a la red resulta determinante para la interacción con plataformas digitales, lo cual potencialmente influye en el modo en el que las aplicaciones de inteligencia artificial afectan a los niños y adolescentes. Además, argumentamos que el desarrollo de competencias para

– 150 –

el aprovechamiento de oportunidades online y la disminución de riesgos también resultan afectados por la gestión de la privacidad (Livingstone, 2018; Livingstone et al., 2015). Esta discusión reviste mayor relevancia y urgencia en contextos de desigualdad social, como en el caso brasileño, en los cuales las diferencias de acceso resultan sustancialmente notorias. En estos escenarios se incrementa también el papel que le cabe a la escuela en la estructuración de matrices curriculares que creen condiciones de acceso y desarrollo de habilidades digitales para todos los alumnos de su red de enseñanza. Aunque la infraestructura TIC y el acceso sean centrales para el éxito de políticas educativas, se entiende que, una vez que no estén alineados a prácticas pedagógicas orientadas a la innovación y que utilicen recursos digitales, no será suficiente para garantizar educación de calidad y romper con barreras socioeconómicas y regionales. Desde ese punto de vista, la adopción de plataformas basadas en IA en los procesos educativos genera, al mismo tiempo, incentivos para la reducción y ampliación de las desigualdades. Si, por un lado, la masificación de tales aplicaciones tiene el potencial de acelerar la integración y la personalización de la enseñanza entre los sectores más vulnerables, igualmente es necesario evaluar la hipótesis de incremento del knowledge gap, según la cual los «ricos» en información son aún más beneficiados por este nuevo escenario (Helsper y Van Deursen, 2017). Para la elaboración del análisis presentado a continuación, fueron tomados en consideración los indicadores relevados por la investigación TIC Kids Online Brasil 20171 relativos al acceso a la red, a la calidad del acceso y a sus implicaciones para la realización de actividades por brasileños de entre 9 y 17 años. A partir del cruce entre contribuciones teóricas del área y los indicadores cuantitativos disponibles, este artículo pretende aportar a las discusiones que involucran la interacción entre juventud y plataformas digitales basadas en sistemas algorítmicos, 1

La investigación TIC Kids Online Brasil, realizada anualmente desde 2012 por el Centro Regional de Estudios para el Desarrollo de la Sociedad de la Información (Cetic.br), tiene como objetivo principal el mapeo de posibles riesgos y oportunidades online, generando indicadores sobre el acceso a Internet de niños y adolescentes de entre 9 y 17 años y sobre los usos que hacen de ella. A efectos de posibilitar las comparaciones internacionales, la TIC Kids Online Brasil adopta el marco conceptual y metodológico desarrollado por la red europea EU Kids Online.

– 151 –

en particular considerando la realidad de los países marcados por desigualdades sociales. Prácticas culturales online y la construcción de ambientes digitales plurales La evolución de las tecnologías de la información y la comunicación ha creado enormes posibilidades no sólo para el consumo cultural, sino también para las prácticas educativas y la producción y circulación de contenidos. Muchas de las oportunidades derivadas del desarrollo de las TIC residen, justamente, en las nuevas configuraciones de las estructuras de producción cultural, las cuales relativizan limitaciones hasta entonces bien definidas entre productores y consumidores, impulsando la difusión de contenidos culturales y la posibilidad de disfrute cultural (Vasconcelos-Oliveira, M.C. y Adib, A., 2017). Las actividades llevadas a cabo en Internet incluyen, según Schäfer (2011), dos tipos de participación importantes respecto del uso de la red: la explícita y la implícita. En la primera los individuos se ven atraídos e interactúan con base en objetivos específicos. En la segunda, el individuo no reconoce muchas dimensiones de las acciones que realiza, las cuales están asociadas a los datos generados a partir del uso para el mejoramiento de las plataformas, desarrollo de contenidos y con finalidades mercadológicas (Schäfer, 2011: 78). Los sistemas de Inteligencia Artificial cumplen un rol central en las formas de participación implícitas. En tal sentido, el uso más frecuente de un segmento restringido de la población circunscribe las «mejoras» de la red a los gustos, necesidades y voluntades de dicho público específico, afectando la diversidad que Internet puede promover. Además de ello, los usuarios frecuentes de Internet pueden ver restringidos los contenidos a los cuales acceden y que les son ofrecidos por la lógica de los algoritmos y el aprendizaje de máquina. Por otro lado, la adopción de IA puede permitir que los contenidos educativos tengan en cuenta las voces de los estudiantes, lo que permitiría, muchas veces, favorecer expresiones culturales poco valoradas en recursos educativos tradicionales, como es el caso de las poblaciones indígenas. Un ambiente digital plural puede ser creado por individuos con sentido crítico desarrollado, capaces de verse representados en los contenidos

– 152 –

a los que acceden y de producir y hacer circular los contenidos que ellos mismos producen. En efecto, resulta fundamental que los niños, niñas y adolescentes comprendan la lógica de funcionamiento de la red y de los algoritmos que la sostienen, para mejorar la calidad del uso que de ella hacen, así como para disminuir los potenciales riesgos asociados. La literatura del área sostiene que cuanto mayor es el uso, mayores serán las posibilidades de desarrollo de habilidades digitales (Livingstone et al., 2015) y, en consecuencia, mayores también serán las posibilidades de desarrollar competencias para una actuación en línea ciudadana y crítica, que involucre, inclusive, al ambiente digital construido. Con la emergencia de aplicaciones basadas en IA, sin embargo, los desafíos para la alfabetización mediática e informacional se vuelven más complejos. Sucede que, a pesar de la percepción generalizada de que todos los niños, niñas y adolescentes están en línea, su relación con las TIC se encuentra mediada por las desigualdades en su acceso y uso. Por eso, existen notorias disparidades respecto de las competencias para usos críticos de la red y, lo que también es relevante, no todos ellos están conectados. A continuación se presenta el estado del acceso a Internet en Brasil de niños y adolescentes, y las implicaciones sobre las diferencias de acceso en las actividades que realizan en línea, en particular de aquellas relacionadas con las condiciones para al aprendizaje basado en plataformas digitales, basadas a su vez en sistemas algorítmicos o IA. Desigualdades sociales y condiciones de acceso a Internet por parte de niños y adolescentes en Brasil En Brasil, el 85% de la población entre 9 y 17 años es usuaria de Internet, lo que corresponde a 24,7 millones de integrantes de dicha faja etaria (CGI.br, 2018a)2. A pesar de la elevada proporción de niños y adolescentes conectados –y del rápido crecimiento de dicho porcentaje a lo largo de la última década–, pueden todavía identificarse desigualdades regionales y socioeconómicas en el acceso a la red.

2

Los indicadores sobre acceso y uso de Internet expresados en el presente artículo son resultado de la investigación TIC Kids Online 2017.

– 153 –

Tomando en cuenta variables territoriales, los niños y adolescentes usuarios de Internet en Brasil están proporcionalmente más concentrados en áreas urbanas (90%) que en áreas rurales (63%), así como en las regiones Sudeste (93%), Centro Oeste (93%) y Sur (92%) respecto de las regiones Norte (68%) y Noreste (77%)3. Partiendo de variables socioeconómicas, se observa que la proporción de niños y adolescentes usuarios de Internet pertenecientes a las clases AB (98%) y a la clase C (93%) es superior al porcentaje del total de la población de entre 9 y 17 años, en tanto que entre aquellos pertenecientes a las clases DE (70%), la proporción de usuarios de Internet está notoriamente por debajo de la media nacional (CGI. br, 2018a). La escolarización paterna se muestra como otra variable socioeconómica vinculada con las posibilidades de que los niños y adolescentes sean usuarios de Internet. En 2017, el 93% de los niños y adolescentes de entre 9 y 17 años cuyos padres o responsables habían completado su educación secundaria o más, eran usuarios de la red. Entre aquellos cuyos padres cursaron hasta el primer bloque de enseñanza primaria, la proporción era del 76% (CGI.br, 2018a). Considerando el contexto de desigualdades presentado, la intensificación del uso de aplicaciones basadas en IA en las escuelas puede llevar a dos escenarios distintos. El primero de ellos es aquel en que las desigualdades se ven reforzadas por la adopción de políticas de tecnología y educación en regiones económicamente más desarrolladas y, prioritariamente, por sistemas privados de enseñanza. El segundo escenario es aquel en que la adopción de IA para educación es entendida como uno de los pilares estructurales de políticas educativas innovadoras. Por esa perspectiva, la calidad de la enseñanza está asociada a medidas de equidad e IA pasa a ser empleada para democratizar el acceso al aprendizaje en las diferentes regiones del país; apoyar la capacitación de funcionarios y profesores de las escuelas de la red pública de enseñanza; y promover, por medio

3

Las disparidades territoriales identificadas para la población contemplada en el presente artículo, de entre 9 y 17 años, también corresponden a la población brasileña de 10 años o más, de acuerdo a lo verificado en la TIC Domicilios 2017 (Comité Gestor de Internet en Brasil [CGI.br], 2018a).

– 154 –

de plataformas adaptativas, la universalización de la educación para los más diversos perfiles y necesidades de los alumnos (CIEB, 2015). Condiciones de acceso a Internet Además de las diferencias observadas respecto a la posibilidad de acceso a la red, es importante considerar también los indicadores vinculados con la calidad de dicho acceso, los cuales incluyen a los tipos de dispositivos utilizados, las clases de conexión, la frecuencia de uso y los lugares de acceso. Estudios relacionados con el uso de las TIC evidencian que tales variables resultan determinantes para la multiplicidad de experiencias online y para el desarrollo de habilidades digitales. A pesar del carácter inclusivo de la conexión a Internet a través de dispositivos móviles (Boyera, 2008), la literatura acerca del tema sugiere que la calidad del acceso influye sustancialmente tanto en las habilidades individuales como en los beneficios asociados al uso de la red (Mossberg, Tolbert y Anderson, 2014; Pearce y Rice, 2013; Mossberg, Tolbert y Franko, 2012). Dispositivos utilizados para el acceso a Internet Brasil sigue la tendencia mundial del predominio de teléfonos móviles para conectarse a la red. Considerando a los usuarios de Internet de entre 9 y 17 años, se estima que el 93% de la población se conectó mediante este dispositivo. En este aspecto no hay evidencias de diferencias significativas entre las regiones, ni en las condiciones socioeconómicas de los niños, niñas y adolescentes. Contrariamente, respecto al uso de otros dispositivos tales como computadores, televisión y consolas de videojuegos, sí se observaron claras diferencias entre jóvenes de las clases AB y DE. En 2017, el 84% de los niños y adolescentes de entre 9 y 17 años de las clases AB utilizaron el computador para acceder a Internet. Entre las clases DE, la proporción fue de apenas el 29%. En el caso de la televisión, el 49% de los usuarios de las clases AB utilizaron el aparato para conectarse a Internet, proporción que se restringe a un 8% entre aquellos pertenecientes a las clases DE. La tendencia del uso predominante del teléfono móvil para conectarse a Internet va acompañada por el crecimiento del uso

– 155 –

exclusivo de este dispositivo por parte de niños y adolescentes. En 2017, el 44% de la población con entre 9 y 17 años se conectó a Internet únicamente a través del teléfono móvil. Dicha tendencia también refleja las desigualdades socioeconómicas del país, factor observable más frecuentemente entre usuarios de las clases DE (67%) que en aquellos de las clases AB (15%). El acceso a Internet a través de un único tipo de dispositivo entre la población de las clases sociales más bajas puede impactar en la variedad de actividades ejecutadas, toda vez que la multiplicidad de dispositivos amplía las oportunidades creadas por el mundo digital (van Deursen y van Dijk, 2018). Considerando el impacto del uso exclusivo del celular para el desarrollo de habilidades digitales, ejemplos exitosos de políticas nacionales de educación y tecnología adoptan como principios estructurantes medidas de infraestructura para la inclusión digital. En muchos casos las políticas prevén la disponibilidad de computadoras para alumnos matriculados, como en el caso chileno del Plan TEC, Plan de Tecnología para una Educación de Calidades (2007-2010), de Digital Education Revolution (2008-2014), de Australia, y del Plan Ceibal (2007-2009 / 2010-2014), de Uruguay (CIEB, 2015). Además de la infraestructura, la adopción de recursos digitales, que pueden incluir IA, también es un principio común de las políticas nacionales exitosas. La implementación de REDs puede potenciar el compromiso de los alumnos en los procesos de aprendizaje y, consecuentemente, aumentar la efectividad de los sistemas de enseñanza. Estudios en el área resaltan cuatro características centrales del uso de esos recursos en la promoción del aprendizaje. La primera de ellas es la capacidad que poseen de crear interacción entre alumno y objeto de estudio a través de medios mediáticos y de los estímulos audiovisuales que poseen. Otro aspecto destacado es la capacidad de RED para la personalización de los ambientes de aprendizaje a las necesidades individuales de los alumnos y con ello permiten la autonomía de niños y adolescentes para adecuar sus procesos de aprendizaje a los diferentes contextos. El uso de estos recursos permite también el mayor compromiso de los padres en el aprendizaje de sus hijos y la comunicación entre padres y profesores

– 156 –

sobre los procesos de enseñanza vivenciados por niños, niñas y adolescentes (CIEB, 2016). A continuación serán presentados algunos de los resultados relevados por la investigación TIC Kids Online Brasil respecto de actividades online efectuadaspor niños y adolescentes en el país. Actividades y uso de las TIC por parte de niños y adolescentes en Brasil Son innumerables las oportunidades de uso de las tecnologías digitales en contextos educativos por niños y adolescentes. Tales herramientas crean condiciones favorables para la búsqueda de información para actividades escolares, para la realización de investigaciones, la búsqueda de noticias y el acceso a contenidos multimedia. La posibilidad creada por la red de compartir los materiales, también estimula la producción de textos, imágenes y videos, pudiendo intensificar el desarrollo de contenidos de autor entre los alumnos. En Brasil se destacan el uso de la red para la realización de trabajos escolares, efectuada por el 76% de la población entre 9 y 17 años usuaria de Internet, y el consumo de noticias online, llevado a cabo por el 51% de esa población. La serie histórica de la encuesta TIC Kids Online Brasil viene mostrando avances en esa área. En cuanto al consumo de noticias en línea, por ejemplo, la proporción tuvo un crecimiento de 17 puntos porcentuales en relación al año 2013 (CGI.br, 2018a). Puede observarse que las actividades multimedia fueron las que alcanzaron mayores diferencias en la proporción de realización, de acuerdo con los distintos niveles socioeconómicos, destacándose ver videos (actividad consumada por el 91% de los usuarios de las clases AB y por el 65% de los pertenecientes a las clases DE) y jugar en Internet, tanto conectado con otros jugadores (51% en las clases AB y 25% en las DE) como no conectado (70% en las clases AB y 45% en las DE). Además de la relación entre la calidad de acceso y las experiencias de usos de Internet, otro aspecto importante entregado por la literatura del área –en particular por aquella orientada al uso de la red por parte de niños y adolescentes– vincula la frecuencia de uso de la red con las habilidades digitales desarrolladas y, en efecto, con las mejores condiciones de los usuarios para enfrentarse a los riesgos

– 157 –

y posibles daños que pueden experimentarse en el ambiente online (Livingstone et al., 2015). La frecuencia de la realización de actividades comunicacionales –tales como el uso de redes sociales y mensajes– presentó altas proporciones entre las diferentes clases sociales y regiones del país, lo que también sucede con el uso del teléfono móvil entre niños y adolescentes. Constituye una evidencia de la relevancia del acceso a través de teléfonos móviles el hecho de que no fueran identificadas diferencias significativas en las habilidades más asociadas al uso de medios móviles, como cambiar las configuraciones de privacidad en redes sociales (63%); excluir personas de la lista de contactos o de amigos (91%); descargar o instalar aplicaciones (94%); introducir contraseña para que otras personas no puedan utilizar su tableta o teléfono móvil (87%) y conectarse a una red WiFi (91%). Las variaciones de las habilidades digitales resultan más notorias entre las diferentes fajas etarias, mostrándose más desarrolladas, de un modo general, entre las fajas etarias más altas. Acerca de este tema es fundamental comprender el papel de la escuela para equilibrar las oportunidades de uso y promover una formación crítica y ciudadana que alcance el ambiente virtual, impulsando las prácticas educativas, culturales y de participación, y respaldando la valorización de la diversidad y de ambientes virtuales plurales, tal como lo veremos en la sección siguiente. La construcción de sociedades más igualitarias y capaces de responder a los desafíos emergentes presupone que los sistemas de enseñanza promuevan el compromiso de sus alumnos en el desarrollo de soluciones tecnológicas, además de estimularlos en favor de una relación activa con las TIC, como consumidores de software, juegos y dispositivos virtuales. Para la creación de tales soluciones es necesario crear medios para que los alumnos comprendan la lógica de funcionamiento de sistemas de algoritmos y programación. La encuesta TIC Educación –que identifica el acceso, el uso y la apropiación de TIC en las escuelas públicas y particulares brasileñas– apuntó que, entre los alumnos conectados, solamente el 10% ya creó un juego, una aplicación o programas de computadora. No se identificó una diferencia significativa en la proporción de alumnos de las redes públicas y privadas de enseñanza con habilidades para

– 158 –

programación. Los bajos porcentuales pueden estar asociados al poco estímulo de las escuelas a realizar actividades que involucren alumnos en la creación de juegos y sitios. Sólo el 2% de los profesores señaló haber realizado actividades para la creación de juegos de computadora o aplicación con los alumnos. En cuanto a la creación de sitios, páginas de Internet o blogs con alumnos, la proporción fue de 3% (CGI.br, 2018b). Consideraciones finales: el papel de la escuela y el desarrollo de competencias y habilidades digitales Como hemos visto, la utilización de plataformas en línea basadas en IA por niños y adolescentes ocurre en diversos ámbitos de su vida social, y cada vez más dentro de la escuela. Frente a ello es necesario buscar un balance en la promocción del acceso a Internet y a los dispositivos, como para la orientación sobre conceptos de ciudadanía que se reflejen en el uso de Internet que habrán de hacer los niños y los adolescentes. Frente a las desigualdades en el acceso a Internet, a los dispositivos y considerando las implicaciones determinadas para el desarrollo de habilidades impuestas por tales restricciones, la necesidad de que las escuelas faciliten y estimulen el uso de la tecnología resulta aún mayor. En un contexto de expansión del uso de las TIC, la escuela asume también la responsabilidad de incluir elementos en sus matrices curriculares que promuevan competencias y habilidades para el uso de la tecnología por parte de los niños y adolescentes. En Brasil, la tecnología muestra presencia en importantes normativas, entre las cuales se encuentran las metas nacionales para el progreso de la educación. El Plan Nacional de Educación, que establece directrices en el área para una década (2014-2024), reconoce la trascendencia de la tecnología en el proceso de alfabetización. También la Base Nacional Común Curricular (BNCC), aprobada en 2017, se refiere a competencias a ser desarrolladas por los estudiantes brasileños para un uso crítico, reflexivo y ético de la tecnología. A pesar de que se reconozca el papel de la escuela en el desarrollo de habilidades digitales, la encuesta TIC Educación 2017 determinó que, aunque Internet está presente en prácticamente todas las escuelas públicas y privadas de las redes urbanas, el uso de la red

– 159 –

no siempre está disponible para los alumnos (CGI.br, 2018b). La situación alcanza tanto a los niños de las clases altas como a los de las clases de bajo ingreso. Las proporciones son todavía menores entre estudiantes de bajo ingreso, cuyas escuelas deberían, más que ninguna otra, poner a disposición del alumnado la estructura de red con la que cuentan, a fin de minimizar la baja tasa de conectividad que dicha población posee en sus domicilios. La ausencia de conexión domiciliaria a Internet (9%) fue uno de los principales motivos para que los niños y adolescentes no hicieren uso de la red, en particular aquellos residentes en áreas rurales (23%), en la región Norte (23%) y pertenecientes a las clases DE (19%). En lo referente al uso de Internet por parte de niños y adolescentes en el ámbito escolar, el contexto brasileño se muestra más sensible que el de otros países vecinos, como Chile y Uruguay. Según la Kids Online Chile 2016, el porcentaje de usuarios de entre 9 y 17 años que utilizaron la red desde la escuela en Chile fue del 66% (Cabello et al., 2018). En Uruguay, en tanto, la proporción es aún más elevada: el 82% de la población en la misma faja etaria accedió a Internet desde la escuela, al menos una vez (Unicef, 2018). La elevada proporción del uso de tecnologías digitales en el ámbito escolar en Uruguay es fruto de la aplicación del Plan Ceibal, política pública orientada a la inclusión digital y a la igualdad de oportunidades para el acceso y el uso de nuevas tecnologías por parte de niños y adolescentes. La política pone a disposición de un computador portátil de uso personal para cada alumno de la red pública del país. Asimismo, ofrece acceso gratuito a Internet en las escuelas (Unicef, 2018). En Brasil, donde todavía existe una notoria exclusión digital de primer nivel, resulta fundamental considerar el papel de la escuela y el potencial de las políticas educativas para minimizar tales disparidades. En la medida en que las instituciones de enseñanza pasan a implementar plataformas adaptativas y el uso de IA con fines educativos, es clave introducir en la agenda el tema de las desigualdades. Entre las externalidades producidas por este nuevo momento está el incremento de la «brecha» informacional, que sería un inductor de mayores disparidades. Desde este punto de vista, la búsqueda de la equidad de oportunidades tiene que estar en el

– 160 –

centro de la política educativa, que debe promover entrenamiento en habilidades como creatividad, flexibilidad y resolución de problemas complejos (Bigonha, 2018). En la medida en que las aplicaciones de IA en este campo son dependientes de la cantidad y diversidad de los datos obtenidos a partir de la experiencia de usuarios en línea, el impacto en temas como la privacidad y protección de datos personales también exige que sean tomados en cuenta los perfiles socio-demográficos, cuestiones de género y etapas de desarrollo de niños y adolescentes. Además de considerar el acceso a la red y a los dispositivos, las políticas públicas educativas deben promover el desarrollo de competencias y habilidades que, más allá de cumplir con las metas educacionales específicas, vinculen a la escuela con las necesidades y prácticas cotidianas de niños, niñas y adolescentes, promoviendo de esta forma la amplitud y la calidad del uso, preparando a esta población para enfrentarse a los riesgos, prevenir posibles problemas en línea y ser capaces de fomentar la construcción de ámbitos digitales plurales y democráticos. Referencias bibliográficas Bigonha, C. (2018). Inteligência Artificial em perspectiva. Comitê Gestor da Internet no Brasil – CGI.br. Panorama Setorial da Internet, Ano 10 (2), 1-9. Recuperado el 20 de noviembre de 2018. Recuperado de . Brasil, Ministerio de Educación. Plano Nacional de Educação. PNE em movimento (2014). Recuperado de . Último acceso: octubre de 2018. Brasil, Ministerio de Educación. Base Nacional Comum Curricular: Educação é a Base (2017). Recuperado de . Último acceso: octubre de 2018. Boyera, S. (2008). White paper on mobile web for social development, World Wide Web Consortium. Recuperado de Último acceso: septiembre de 2017. Cabello, P., Claro, M., Lazcano, D. & Antezana, L. (2018). La inclusión digital de niños y adolescentes chilenos desde la perspectiva de usos y habilidades. En E. Jiménez, M. Garmendia & M.A Casado (coords.), Entre selfies y whatsapps: Oportunidades y riesgos para la infancia y la adolescencia conectada, primera ed. (pp. 259-277). España: Gedisa. Centro de Inovação para a Educação Brasileira – CIEB (2015). A Importância de Políticas Nacionais e Centros de Inovação em Educação. Notas

– 161 –

Técnicas. V. 1. Recuperado el 21 de diciembre de 2018, de . Centro de Inovação para a Educação Brasileira – CIEB (2016). Recursos Educacionais Digitais para Educação. Notas Técnicas, V. 2. . Recuperado el 21 de diciembre de 2018, de . Comité Gestor de Internet en Brasil – CGI.br (2017). Cultura e tecnologias no Brasil: Um estudo sobre as práticas culturais da população e o uso das tecnologias de informação e comunicação. São Paulo: CGI.br. Recuperado el 20 de septiembre de 2017, de . Comité Gestor de Internet en Brasil – CGI.br (2018a). Pesquisa sobre o uso de Internet por crianças e adolescentes no Brasil – TIC Kids Online Brasil 2017. São Paulo: CGI.br. Comité Gestor de Internet en Brasil – CGI.br (2018b). Pesquisa sobre o uso das tecnologias de informação e comunicação nas escolas brasileiras: TIC Educação 2017. São Paulo: CGI.br. Comité Gestor de Internet en Brasil – CGI.br (2018c). Pesquisa sobre o uso das tecnologias de informação e comunicação nos domicílios brasileiros: TIC Domicílios 2017. São Paulo: CGI.br. Fondo de las Naciones Unidas para la Infancia (UNICEF) (2018). Niños, niñas y adolescentes conectados: Informe Kids Online Uruguay. Montevideo: UNICEF. Helsper, E. J. & Van Deursen, A. (2017). Do the rich get digitally richer? Quantity and quality of support for digital engagement. Information, Communication and Society, 20 (5) pp. 700-714. Livingstone, S. (2018). Children: a special case for privacy? Intermedia, 46 (2), pp. 18-23. Recuperado el 10 de noviembre de 2018, de . Livingstone, S., Haddon, L., Görzig, A. & Ólafsson, K. (2011). EU Kids Online: Final report. London: EU Kids Online and London School of Economics & Political Science. Mossberger, K., Tolbert, C. J. & Anderson, C. (2014). Digital Citizenship: Broadband, mobile use and activities online. International Political Science Association Conference. Montreal. Mossberger, K., Tolbert, C. J. & Franko, W. (2012). Digital cities: The internet and the geography of opportunity. New York: Oxford University Press. Pearce, E. & Rice, E. (2013). Digital divides from access to activities. Journal of Communication (63), 721-744.

– 162 –

Schafer, M. T. (2011). Bastard culture! How user participation transforms cultural production. Amsterdã: Amsterdam University Press. Van Deursen, A. & van Dijk, J. (2018). The first-level digital divide shifts from inequalities in physical access to inequalities in material access. New Media & Society, 1-22. Recuperado de . Vasconcelos-Oliveira, M.C. & Adib, A. (2017). Cultura e Arte na Era da Participação: Reflexões a partir de práticas de usuários de Internet no Brasil, Comité Gestor de Internet en Brasil – CGI.br. Cultura e tecnologias no Brasil: Um estudo sobre as práticas culturais da população e o uso das tecnologias de informação e comunicação. São Paulo: CGI.br. Recuperado el 20 de noviembre de 2018, de .

– 163 –

Lectura online para la promoción de capacidades y habilidades digitales en el ambiente virtual y automatizado laura nathalie hernández rivera, tedirei - grupo de investigación en tecnologías, derecho e inclusión, brasil josé roberto amaya valencia, universidad federal de ceará, brasil.

Cada vez más jóvenes toman decisiones desde su computadora o dispositivo móvil que usa inteligencia artificial. Las tecnologías que se auxilian de algoritmos de machine learning ofrecen la oportunidad de acceder y analizar de manera rápida, y tal vez más eficiente, millones de informaciones automatizadas para la adquisición de conocimiento o para la toma de decisiones. Frente a esa realidad es pertinente cuestionar: ¿Los jóvenes están adquiriendo las habilidades para evaluar, en ambientes virtuales, de manera crítica la información presentada por los algoritmos? La promoción de habilidades y capacidades digitales debe buscar preparar a jóvenes bien informados y bien capacitados para desenvolverse efectivamente en ambientes virtuales; y que, a la vez, utilicen las herramientas que los empoderen para el ejercicio de sus derechos, su bienestar y desarrollo equilibrado para enfrentar un futuro –probablemente– más impregnado por las tecnologías. Como una forma de empoderar a los jóvenes para el mejor aprovechamiento de las tecnologías, abordamos la promoción de capacidades y habilidades digitales desde la perspectiva del aprendizaje de la lectura online respecto de la evaluación de la información ofrecida por los algoritmos. Consideramos que dicho abordaje puede contribuir a que los jóvenes, en el futuro, tengan una mayor autonomía en ambientes virtuales y automatizados; adquieran las habilidades para el pensamiento crítico frente a informaciones y contenidos digitales; identifiquen y comprueben la fiabilidad de las informaciones; y mejoren las capacidades para la producción de contenidos y la toma de decisiones con responsabilidad social.

– 165 –

Introducción Las tecnologías de la información y comunicación han servido para el ejercicio de la libertad de pensamiento y expresión de comunidades; para el acceso a informaciones; y para la construcción de conocimiento y la proposición de ideas o debates por medio de la constitución de comunidades virtuales de conocimiento. Un ejemplo de lo anterior es la accesibilidad que las tecnologías de la comunicación y la información prometen mediante la creación de espacios para la participación en foros o debates virtuales, la divulgación de ideas, así como la potencialidad de servir de base para la conformación de comunidades productoras de conocimiento y facilitadoras del intercambio de contenidos, constituyéndose a su vez en una vía para el empoderamiento social y para el acceso a conocimiento digital a través de noticias, informaciones o contenidos digitales. Esta misma tecnología, ahora mediante algoritmos e inteligencia artificial, promete presentarnos informaciones relevantes y personalizadas a través de la clasificación y predicción de nuestro comportamiento, intereses y necesidades. La capacidad de la inteligencia artificial para el análisis de «grandes cantidades de datos de varias fuentes para la realización de una diversidad de tareas» (Axente, 2018) supera enormemente la capacidad humana de ejecución de tareas en ambientes virtuales. Actualmente, muchas tecnologías usan algoritmos de machine learning, los cuales tienen la capacidad de auto-programarse y aprender de manera autónoma la realización de una tarea; es decir, no necesariamente repiten la misma serie de instrucciones con las que originalmente fueron diseñados –como lo hacen los algoritmos tradicionales–, sino que están en un constante aprendizaje autónomo, bajo supervisión humana o no, lo que permite una mejora continua de los resultados. Esta característica puede contribuir a la imprevisibilidad de los resultados, lo cual hace necesaria la intervención humana, no sólo para corregir técnicamente posibles errores en los algoritmos, sino también para evaluar de manera crítica los resultados y poder decidir –sustentada en criterios específicos para la evaluación de la información– si confiar o no en la información ofrecida.

– 166 –

Inteligencia artificial y evaluación de la fiabilidad de la información La información que obtenemos de Internet, de plataformas o aplicaciones de tecnología es, cada vez más procesada y ordenada por inteligencia artificial y algoritmos de machine learning es decir, es producto de la «decisión» de lo que el algoritmo considera que será de nuestro interés. Esta decisión algorítmica se basa en la información que proporcionamos al usar tecnologías que recolectan nuestros datos personales e informaciones sobre nuestras preferencias; con base en el monitoreo de nuestro comportamiento online; o por medio de la construcción de patrones para la oferta de servicios o productos. El trabajo de los algoritmos es, por tanto, clasificar, eliminar o recomendar información o contenido digital al que accederemos. Podríamos señalar que, en mayor o menor medida, los algoritmos predicen y controlan lo que leemos, lo que hablamos, cómo interactuamos y cómo tomaremos nuestras decisiones en el futuro. No deberíamos suponer que los jóvenes –tanto aquellos que actualmente usan las tecnologías en sus actividades diarias, como aquellos que en un futuro lo harán– sabrán adquirir las capacidades necesarias para evaluar la información presentada por los algoritmos. Tal vez algunos de estos jóvenes estén más acostumbrados y entiendan mejor las potencialidades inherentes y los efectos de las tecnologías en el ambiente digital, así como lo que sucede con la información que publican online y que alimenta de datos a los algoritmos. La capacitación digital en jóvenes cobra relevancia frente a la posibilidad de que los algoritmos de machine learning entorpezcan el acceso a informaciones verdaderas, útiles o éticas, afectando la percepción de la realidad en los jóvenes, lo que a su vez perjudicaría las habilidades y capacidades digitales para evaluar de manera crítica la información que contribuya a su desarrollo como actores sociales bien informados y bien representados, además de productores de conocimiento confiable y ético. Por ende, no debemos apoyarnos únicamente en la capacidad absoluta de la tecnología, puesto que por estar ésta en constante evolución y mejora, el análisis o exposición de la información podría no ser falible o ética –tal como ya se ha visto en casos sobre análisis de riesgos varios, puntuación de récord crediticio o seguros, en la predicción de comportamientos, resultados o diagnósticos de salud–,

– 167 –

afectando derechos humanos o influyendo negativamente en las decisiones de las personas. Al analizarlo bajo esa perspectiva cabe preguntarnos si aún podemos considerar a las tecnologías como una herramienta perfecta, libertadora y de empoderamiento, o si es necesario adquirir habilidades específicas para que la misma siga cumpliendo su finalidad atribuida. Lectura online para el desarrollo de habilidades y capacitación digital Teniendo en cuenta que mucha de la información ofrecida en Internet es, de alguna manera, «sugerida» por los algoritmos, es necesario plantearse la necesidad de incrementar la capacitación en los jóvenes para que puedan lidiar eficazmente con la información a la que acceden y así insertarse exitosamente en un mundo que demanda cada vez mayor preparación académica. Sobre todo considerando lo que algunos autores –como Jones (2002), Kuiper, Volman, y Terwel (2005) y Walraven, Brand-Gruwel y Boshuizen (2009)– señalaron en su momento sobre la frecuencia, cada vez mayor, con que los jóvenes estudiantes utilizan Internet como fuente de información para realizar sus proyectos escolares. En este contexto, estadísticas del año 20161 indican que en Brasil, por ejemplo, un 41% de los usuarios utilizó Internet para realizar actividades o investigaciones escolares; y dentro de este porcentaje, las franjas etarias que más accedieron a la red con esta finalidad fueron las de 10 a 15 años (69%) y de 16 a 24 años (52%). Este panorama es de especial importancia si consideramos la enorme cantidad de información disponible en Internet, lo que implica, por un lado, que la mayoría de las veces, la respuesta al problema que llevó a los estudiantes a buscar en Internet no se encuentre en una única fuente, sino en múltiples (Goldman, Braasch, Willey, Graesser y Brodowinska, 2012); y, por otro, que mucha de esa información puede ser irrelevante para los objetivos de la investigación, o puede carecer de fiabilidad (Goldman et al., 2012), ser imprecisa o incluso hasta engañosa, debido a la facilidad con que las personas pueden publicar en la red lo que desean (Killi, Laurinen y Marttunen, 2008). 1

. Acceso en 15 de octubre de 2018

– 168 –

En este sentido hablamos de un problema que atañe primordialmente a la enseñanza de la lectura, en especial a la que se realiza en ambiente digital la cual, pese a tener sus propios desafíos, sigue necesitando de las habilidades que se emplean en la lectura en textos impresos. Como certeramente apuntan Coiro y Coscarelli (2014), aunque hablemos de lectura en ambiente digital, seguimos hablando de lectura, es decir, seguimos hablando de leer y decodificar textos a través de diferentes géneros textuales y de construir el sentido del texto. Y hablamos también de literacidad digital, que es entendida como la porción de literacidad que está constituida por las habilidades deseadas en el individuo o grupo de individuos para comunicarse eficientemente en el ambiente digital, ya sea mediante computadora o cualquier otra tecnología semejante (Ribeiro, 2008); o, en palabras de Soares (2002), es aquel grado que adquieren los que logran apropiarse de la tecnología digital para ejercer efectivamente las prácticas sociales de lectura y escritura mediadas por computadora. Así, los jóvenes que se abocan a Internet, además de echar mano a las estrategias de lectura tradicional, necesarias pero no suficientes para afrontar el aprendizaje en el mundo digital (Coiro y Dobler, 2007), deben refinar sus habilidades para identificar, acceder, evaluar, analizar y sintetizar los recursos digitales (Martin, 2008), así como para utilizar y adaptarse con éxito a las tecnologías de comunicación e información que cambian continuamente e influencian cada ámbito de nuestra vida personal y profesional (Leu, Kinzer, Coiro, Castek y Henry, 2013). En palabras más claras, en el acto de lectura online, el lector, en el proceso de construir el sentido del texto, debe ser capaz de localizar la información en la infinita gama de fuentes disponibles en Internet; evaluar si esa información es adecuada a sus objetivos y si es confiable (Coiro, Coscarelli, Maykel y Forzani, 2015); sintetizar e integrar la información que obtuvo de varias fuentes (Goldman et al., 2012) para compartirla como parte de las prácticas sociales de lectura y escritura (Leu et al., 2013). Estas habilidades –presentes también en la lectura tradicional, pero que se vuelven más complejas en el ambiente digital, donde el lector debe lidiar con la multimodalidad, la lectura en múltiples fuentes y la realización simultánea de múltiples tareas (Coscarelli y Coiro, 2014)– han sido objeto de numerosos estudios cuyos resultados revelan, entre otros, un problema nada desdeñable:

– 169 –

pocas veces los estudiantes son capaces de juzgar convincentemente la fiabilidad de la información que encuentran en Internet (Coiro et al., 2015; Walraven et al., 2009; Killi et al., 2008). Por ejemplo, Coiro et al. (2015), en una investigación realizada con alumnos de séptimo grado en el Noroeste de Estados Unidos, pusieron en evidencia que sólo el 25% de los estudiantes utilizó criterios aceptables y razonamiento claro para juzgar la información que le fue presentada, mientras que un 69-79% de las respuestas dadas incluyó un rango de criterios inaceptables, vagos y superficiales para determinar cuatro criterios de evaluación de la información (nombre del autor, nivel de experticia del autor, identificación del punto de vista del autor y provisión de evidencia razonable de la fiabilidad general de un sitio Web). Killi et al. (2008), a su vez, en estudio realizado con 25 alumnos de secundaria de una escuela en Finlandia, diseñado para investigar cómo estos estudiantes evaluaban las fuentes de Internet en una tarea real de aprendizaje, descubrieron que la mayoría de ellos rara vez evaluó la credibilidad de la información obtenida y que criterios como la credibilidad del autor o del editor fue la estrategia más utilizada. Por otro lado, cuando los estudiantes se enfrentaron a una gran cantidad de información disponible, la evaluación sobre la relevancia de las fuentes fue más importante que la evaluación de la credibilidad de las mismas. Esto nos lleva a constatar la idea de que es necesario que los jóvenes adquieran esas nuevas habilidades que les permitan discernir entre aquella información que muchas veces suele estar contaminada por sesgos comerciales, ideológicos o sectarios. Para ello deben ser capaces de aplicar criterios de manera simultánea como: encontrar el nombre del autor del texto; verificar el nivel de experticia del autor; identificar el medio de publicación del texto (blog, revista con revisión por pares, instituto académico, por ejemplo); ver la fecha de publicación; cerciorarse de que en el texto se citen las fuentes que sustentan una afirmación; evaluar el nivel de evidencia científica en el que se apoya una información, por mencionar unos cuantos (Coiro et al., 2015; Barker y Kupersmith, 2010). Parte de estas directrices están contempladas en documentos gubernamentales en los que se resalta la importancia de que en la escuela se prepare a los alumnos para utilizar las tecnologías y el Internet eficazmente, mediante la

– 170 –

enseñanza de las actividades de lectura y escritura, como el Common Core State Standards2 o el Programme for International Students Assessments (PISA)3. Si bien se tiene la certeza de que los desafíos de la lectura online son varios, el problema de la evaluación crítica de la información a la que se accede en Internet cobra mayor relevancia en un mundo en el que se espera que el lector online no sea un simple consumidor de datos, sino un productor de contenido para la red (Xavier, 2011); un mundo en el que se espera que el lector online tenga habilidades para la creatividad, la innovación, la colaboración y la comunicación (Johnson, 2014), pero que también pueda, de manera activa e independiente, construir conocimiento a través de la recolección y juzgamiento de la calidad de la información (Coiro et al., 2015). Es decir, las personas que son parte de una cultura participativa, creen realmente que sus contribuciones son importantes, sienten un alto grado de cohesión social, y promueven el trabajo entre pares (Jenkins, 2009). Por tanto, una dedicada capacitación en la adquisición de las nuevas habilidades que demanda el ambiente digital, redunda en una mayor inserción del individuo en su comunidad, a través de su participación activa en foros virtuales, chats, foros de discusión online, etc. Inteligencia artificial, capacitación digital y bienestar de los jóvenes No pretendemos negar los avances que la inteligencia artificial ha logrado como una herramienta para ayudar, por ejemplo, en la necesaria evaluación crítica de la información que se encuentra en Internet. Ejemplos claros los tenemos en Google, que implementó un algoritmo para calificar la calidad de las páginas Web, basado en la información fáctica provista por la fuente (XL Dong et al., 2015); o en Facebook, que combinó algoritmos y una alianza con otras organizaciones dedicadas a la verificación de hechos para combatir la desinformación (Ananny, 2018). Ambas iniciativas tienen la finalidad de hacer frente a las denominadas fake news. Antecedentes 2

3

. Consultado el 17 de octubre de 2018. . Consultado en 17 de octubre de 2018.

– 171 –

más tempranos sobre el uso de la tecnología para ayudar a los estudiantes a evaluar la fiabilidad de la información en Internet, los encontramos en los estudios de Coiro et al. (2015), Coiro et al. (2014) o Zhang (2013), quienes utilizando interfaces interactivas guiaban a los jóvenes estudiantes en este proceso importante de la lectura y comprensión online. La inteligencia artificial y los algoritmos, a través de su capacidad de síntesis, análisis y producción de contenido, pueden contribuir al empoderamiento de los jóvenes, a la cohesión social y a la cultura participativa mediante el acceso a mayores cantidades de información en ambientes virtuales. Los algoritmos obedecen a órdenes codificadas basadas en criterios computacionales y humanos, es decir, al final son humanos diseñando y definiendo los algoritmos de machine learning para ayudar a otros humanos en la toma de decisiones. ¿Pero esto será suficiente para satisfacer las necesidades requeridas en el proceso de lectura? Si bien los algoritmos de machine learning buscan simplificar nuestras vidas mostrándonos información personalizada y relevante a nuestro interés, es oportuno cuestionar si, frente a la complejidad del proceso de lectura en los sistemas actuales y en el futuro, también pueden simplificar el análisis de informaciones; y si conseguirá simular emociones, aspectos humanos y conocimiento previo, factores relevantes en la evaluación e interpretación durante el proceso de lectura. Consideramos que, si bien la inteligencia artificial y los algoritmos son una valiosa herramienta en la elección, recopilación y análisis de operaciones e informaciones de manera extraordinaria y eficiente, es importante promover las habilidades de la lectura online en los jóvenes para capacitar a futuros adultos responsables en la interpretación y producción de información, puesto que, por más que existan algoritmos que aligeran la carga de la evaluación de la fiabilidad de la información (los ya mencionados de Google y Facebook), el lector, en el complejo proceso de lectura online seguirá necesitando de las habilidades señaladas en párrafos anteriores, incluyendo la evaluación de la información. Esto es así porque a la hora de realizar la actividad de lectura online, el lector seguirá necesitando activar su conocimiento previo; tendrá que seguir eligiendo entre la inmensa cantidad de fuentes de

– 172 –

información a su disposición, realizando en ese proceso un primer juzgamiento de la relevancia y la fiabilidad mediante inferencias de lo que los links a su disposición puedan revelar; seguirá necesitando analizar el punto de vista del autor o si el contenido está viciado por intereses comerciales e ideológicos; necesitará crear una representación mental que junte las representaciones mentales de cada texto individual consultado con la información intertextual (autor, razón del autor para escribir el texto, etc.); todo lo cual debe realizarlo mientras concilia la navegación –una de las tantas competencias que se amplifican en el ambiente digital– con el monitoreo permanente de lo que comprendió de las lecturas que realizó. Es importante que el lector online –entiéndase los jóvenes– sea en el futuro productor de contenidos y no mero consumidor. Las habilidades adquiridas en el proceso de lectura online también pueden promover capacidades para que los jóvenes se desenvuelvan mejor en ambientes virtuales y automatizados en el futuro, donde los jóvenes deberán cultivar aptitudes para complementar o perfeccionar la información procesada por la inteligencia artificial y los algoritmos. El pensamiento crítico, la interpretación del contexto, las emociones, la conciencia cultural y el manejo de relaciones humanas son habilidades que difícilmente serán sustituidas por una inteligencia artificial y, por tanto, aquellos jóvenes que las adquieran podrán aspirar a desarrollarse con mayor autonomía y responsabilidad en el futuro. Finalmente, el aprendizaje de la lectura online beneficia a los jóvenes al promover la participación, la colaboración y la distribución de los textos que ellos están invitados a crear como parte de la comunidad. A través del uso de la tecnología, ellos son capaces de actuar con creatividad e innovación, pero también de pensar críticamente. Mediante la lectura online ellos pueden resolver problemas, cuya solución luego van a comunicar, muchas veces en colaboración con otros miembros de su comunidad, manteniendo una flexibilidad y adaptabilidad con el entorno digital. Esto les permitirá entenderse a ellos mismos como miembros de una cultura participativa y podrán ver el mundo desde otra perspectiva.

– 173 –

Referencias bibliográficas Ananny, M. (2018). The Partnership Press: Lessons for Platform-Publisher Collaborations as Facebook and News Outlets Team to Fight Misinformation. Recuperado de . Axente, M. (2018, mayo 11). Who decides the future of artificial intelligence? Recuperado de . Barker, J. & Kupersmith, J. (2010). Evaluating web pages: Techniques to apply and questions to ask. Recuperado de . Brogan, J. (2017, noviembre 8). What’s the Deal with Algorithms? Recuperado de . Coiro, J. & Dobler, E. (2007). Exploring the online reading comprehension strategies used by sixth-grade skilled readers to search for and locate information on the Internet. Reading Research Quarterly, 42 (2), 214-257. Coiro, J., Kiili, C. Hamalainen, J., Cedillo, L., Naylor, R. O’Conell, R. y Quinn, D. (2014). Digital Scaffolds for Reading Multiple Online Sources and Writing an Argumentative Text. En: 64th Annual Conference, «The Dialogic Construction of Literacies». Literacy Research Association, Marco Island, Florida, 1-19. Recuperado de . Coiro, J., Coscarelli, C., Maykel, C. & Forzani, E. (2015). Investigating Criteria That Seventh Graders Use to Evaluate the Quality of Online Information. Journal of Adolescent & Adult Literacy, 59, 1-11. Doi.org/10.1002/jaal.448 Coscarelli, C. & Coiro, J. (2014). Reading multiple sources online. Linguagem & Ensino, Pelotas, 17 (3), 751-776. Domingos, P. (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Nueva York: Basic Books. Dong, X.L., Gabrilovich, E., Murphy, K., Dang, V., Horn, W., Lugaresi, C. & Zhang, W. (2015). Knowledge-based trust: estimating the trustworthiness of web sources. Proceedings of the VLDB Endowment, 8 (9), 938-949. Doi: 10.14778/2777598.2777603. Goldman, S., Braasch, J., Willey, J., Graesser, A. & Brodowinska, K. (2012). Comprehending and learning from internet sources: Processing patterns of better and poorer learners. Reading Research Quarterly, 47 (4), 356-381. Jenkins, H. (2009). Confronting the challenges of participatory culture: Media education for the 21st century. The MIT Press, MA. Johnson, D. (2014). Reading, Writing and Literacy 2.0: Teaching with Online Texts, Tools and Resources, K-8. New York: Teachers College Press.

– 174 –

Kiili, C., Laurinen, L. & Marttunen, M. (2008). Students evaluating Internet sources: From versatile evaluators to uncritical readers. Journal of Educational Computing Research, 39 (1), 75-95. Kuiper, E., Volman, M. & Terwel, J. (2005). The Web as an information resource in K-12 education: Strategies for supporting students in searching and processing information. Review of Educational Research, 75 (3), 285-328. Leetaru, K. (2018, octubre 8). Is Social Media Empowering or Silencing our Voices? Recuperado de . Leu, D., Kinzer, C., Coiro, J., Castek, J. & Henry, L. (2013). New literacies: A duallevel theory of the changing nature of literacy, instruction, and assessment. En: D.E. Alvermann, N.J. Unrau, & R.B. Ruddell (Eds.), Theoretical models and processes of reading (Sixth Ed.), Newark, DE: International Reading Association, 1150-1181. Machado, R. C. & Rivera, L. N. (2017). Democratização na era digital: desafios para um diálogo consciente e igualitário. Revista Brasileira de Políticas Públicas, Brasília, v. 7, nº 3, 2017, 601-616. Martin, A. (2008). Digital literacy and the «Digital society». En: Lankshear, C. & Knobel, M. (eds.), Digital Literacies: concepts, policies and practices. New York: Peter Lang Publishing, 151-176. Raicu, I. (2018, octubre 11). Young adults take more security measures for their online privacy than their elders. Recuperado de . Raso, F., Hilligoss, H., Krishnamurthy, V., Bavitz, C. & Kim, L. (2018, septiembre 25). Artificial Intelligence & Human Rights. Recuperado de . Ribeiro, A. E. (2008). Navegar lendo, ler navegando: aspectos do letramento digital e da leitura de jornais. Tese (Doutorado em Lingüística), Universidade Federal de Minas Gerais, Belo Horizonte. Soares, M. (2002). Novas práticas de leitura e escrita: letramento na cibercultura. Educação & Sociedade, Campinas, 23 (81), 143-160. Soffel, J. (2018, julio 25). ¿Cuáles son las habilidades que todos los estudiantes necesitan para el 2020? Recuperado de . Walraven, A., Brand-Gruwell, S. & Boshuizen, H. P. A. (2009). How students evaluate sources and information when searching the World Wide Web for information. Computers and Education, 52, 234-246. Xavier, A. C. (2011). Letramento Digital: impactos das tecnologias na aprendizagem da Geração Y. Calidoscópio, 9 (1), 3-14.

– 175 –

Bienestar, seguridad y privacidad

Presentación de la temática eduardo magrani, its rio

Actualmente, los jóvenes conviven en un espacio de «polimedia» en donde experimentan la vida social a través de múltiples tecnologías, muchas veces haciendo uso directo o indirecto de algoritmos complejos que toman decisiones y se adaptan al usuario en un contexto de hiperconectividad y personalización de la información. A diferencia de las anteriores, la presente generación de jóvenes se encuentra en una situación de desarrollo casi simbiótico, con productos y servicios tecnológicos que tienen una presencia constante y ubicua en sus vidas. En el contexto de una sociedad que se configura como una red de actores, la permanante interacción de las generaciones más jóvenes con agentes no humanos, con cosas conectadas, algoritmos e inteligencias artificiales, componentes del escenario reciente del Internet de las Cosas (IoT), trae desafíos significativos respecto a la protección de la privacidad y seguridad, así como, en última instancia, a su propio bienestar y desarrollo. A pesar de que ya son notorios, por ejemplo, casos de pornografía infantil a través de Internet, la carencia de media literacy y amenazas de forma general a la seguridad y privacidad de los jóvenes, los efectos perjudiciales y los riesgos de este escenario todavía no están completamente investigados y carecen de un marco jurídico. Cabe señalar que algunos países de América Latina aún no tienen leyes adecuadas de protección de la privacidad (teniendo como parámetro el Reglamento General de Protección de Datos en Europa), capaces de proteger al usuario en ese contexto de la recolección y tratamiento abusivo de datos personales. En este sentido, en lo que se refiere a la responsabilización de actores, no tenemos un paradigma jurídico que sea capaz de comprender la

– 179 –

participación y responsabilidad de los diferentes actores involucrados en la cadena de producción e implementación de inteligencias artificiales. Este fenómeno se manifiesta en la perplejidad de la comunidad jurídica ante los nuevos desafíos de los sistemas computacionales, cada vez más inteligentes. Otro punto importante en este contexto es que la toma de decisiones automatizada a través de algoritmos o inteligencia artificial es frecuentemente desarrollada por empresas que prestan servicios a nivel global, carentes a menudo de un enfoque más inclusivo que considere los diferentes contextos culturales y sociales locales que no sean aquellos en que tales tecnologías se proyectan. Incluso, dentro de las propias instituciones no hay, muchas veces, una preocupación por la protección de los derechos fundamentales de los usuarios de sus dispositivos y plataformas. La situación sigue siendo más grave cuando se percibe que la mayoría de los servicios de IA están dirigidos a un público adulto, presumiendo todas las capacidades jurídicas y psicofísicas que integran esa figura, pero raramente anticipan el contexto, las restricciones y los riesgos del público joven. Además, la ausencia de un debate maduro en la esfera pública latinoamericana sobre las cuestiones éticas vinculadas a la inteligencia artificial y a los algoritmos que interactúan cada vez más con el público joven, deja un vacío regulatorio y político en esa área. Esta sección, por lo tanto, analizará los impactos de estas nuevas tecnologías bajo el prisma de la seguridad, la privacidad y el bienestar, ya que influencian cada vez más a las nuevas generaciones a través de la tecno-regulación y operan muchas veces por encima del Derecho como inductores de comportamiento. En sus explicaciones, Hora, Calarco y Roll buscan analizar el impacto del filtraje algorítmico y de la personalización de la información para el acceso a ella en la formación política de jóvenes brasileños. Además indagan cómo operan los filtros en las plataformas de búsqueda de información online y de redes sociales. Asimismo, abordan el impacto en los jóvenes sobre dos ópticas: la del acceso a la (des)información y la de la participación efectiva en los debates, siendo el tema de estudio el debate político brasileño. Finalmente, se argumenta acerca de la necesidad de transparencia de los algoritmos y la inclusión de los jóvenes en el debate sobre los impactos de la inteligencia artificial en la obtención de información y en la concientización política. – 180 –

Lucena y Valent sostienen que los sistemas capaces de tomar decisiones con un grado creciente de autonomía, más independientes de la intervención humana, están cada vez más presentes, de manera más intensa y son más relevantes en la vida cotidiana de los individuos. Supervisar y ejercer los niveles necesarios de control sobre tales estructuras no es tarea fácil, entre otras razones porque la dinámica a la que obedecen ya no se adecúa a las herramientas, a los procesos o a las instituciones que tradicionalmente se ocuparon de esta supervisión y control. Se propone explorar los modelos de múltiples partes interesadas como una alternativa para enfrentar estas cuestiones. Se entiende que además de ser más apropiada para la gobernanza del ecosistema de algoritmos, esta es una alternativa más receptiva y que ofrece menos obstáculos a la llegada, inclusión y participación de las juventudes en los diversos procesos. Rivera y Valencia discuten que cada vez más jóvenes toman decisiones desde su computadora o dispositivo móvil con inteligencia artificial. Las tecnologías que se auxilian de algoritmos de machine learning ofrecen la oportunidad de acceder y analizar de manera rápida, y tal vez más eficiente, millones de informaciones automatizadas para la adquisición de conocimiento o para la toma de decisiones. Frente a esa realidad consideran pertinente cuestionar: ¿Los jóvenes están adquiriendo las habilidades para evaluar, en ambientes virtuales, de modo crítico la información presentada por los algoritmos? La promoción de habilidades y capacidades digitales debe buscar preparar a jóvenes bien informados y bien capacitados para desenvolverse efectivamente en ambientes virtuales y que, a la vez, representen las herramientas que los empoderen para el ejercicio de sus derechos, su bienestar y desarrollo equilibrado para enfrentar un futuro, probablemente, más impregnado por las tecnologías. Como una forma de empoderar a los jóvenes para el mejor aprovechamiento de las tecnologías, abordan la promoción de capacidades y habilidades digitales desde la perspectiva del aprendizaje de la lectura online respecto de la evaluación de la información ofrecida por los algoritmos. En su artículo, Crespo y Kauer indican cómo las burbujas constituidas por algoritmos en Internet, especialmente en las redes sociales, pueden influenciar a los jóvenes, distorsionando la realidad fáctica a partir de presentaciones de contenidos aparentemente relevantes

– 181 –

para sus intereses, pero que limitan drásticamente la visión amplia del mundo. Con ejemplos prácticos e hipotéticos, el documento pretende que el lector pueda reflexionar críticamente sobre las filter bubbles y cómo pueden afectar el bienestar y el juicio crítico de los jóvenes. Finalmente, Oliveira explica que vivimos en un mundo cada vez más conectado que nos posibilita diferentes tipos de interacción, siendo una realidad el aumento de la relación entre hombres y máquinas, así como la nueva generación de niños y adolescentes que ya crece y se desarrolla en un mundo ampliamente digital. En ese escenario surgen preocupaciones sobre los valores que pueden ser atribuidos a las aplicaciones y servicios dotados de inteligencia artificial. Con el pasar del tiempo las nuevas tecnologías moldean nuestro comportamiento y, en ese contexto, el Derecho no debe ser una camisa de fuerza para obstaculizar el desenvolvimiento de la innovación, pero sí se debe reinventar con el fin de garantizar la existencia de nuevas tecnologías que respeten normas mínimas de privacidad, seguridad y ética. Además, hay que invertir en educación digital, en especial para que niños y adolescentes puedan conocer las consecuencias de sus actos y así tengan mayor responsabilidad por sus acciones. Luego, el establecimiento de valores sólidos asociados a educación se muestra como una pieza fundamental para que la interacción entre seres humanos y máquinas se pueda dar de una forma ordenada y contributiva para el desenvolvimiento de niños y adolescentes.

– 182 –

Inteligencia artificial al servicio de la convivencia humana: la importancia de normas de privacidad, seguridad y ética desde la concepción de productos y servicios caio césar de oliveira, grupo de derecho, incerteza y tecnología (dit / usp)

Vivimos en un mundo cada vez más conectado que nos posibilita diferentes tipos de interacción, siendo una realidad el aumento de la relación entre hombres y máquinas, así como la nueva generación de niños y adolescentes que ya crece y se desarrolla en un mundo ampliamente digital. En ese escenario surgen preocupaciones respecto de los valores que pueden ser atribuidos a las aplicaciones y servicios dotados de inteligencia artificial. Esto porque, a pesar de moldearnos a las nuevas tecnologías, se puede fácilmente percibir que con el pasar del tiempo las nuevas tecnologías moldean nuestro comportamiento. En ese contexto, el Derecho no debe ser una camisa de fuerza para obstaculizar el desenvolvimiento de la innovación, pero sí se debe reinventar con el fin de garantizar la existencia de nuevas tecnologías que respeten normas mínimas de privacidad, seguridad y ética. Asimismo, hay que invertir en educación digital, en especial para que niños y adolescentes puedan conocer las consecuencias de sus actos y así tengan mayor responsabilidad por sus acciones. El mundo digital nos proporciona, con pocos clics, alcanzar lugares inimaginables y en pocos segundos podemos interactuar con incontables personas por medio de diferentes formas. Luego, conforme será demostrado más adelante, el establecimiento de valores sólidos asociados a educación se muestra como una pieza fundamental para que la interacción entre seres humanos y máquinas se pueda dar de una forma ordenada y contributiva para el desenvolvimiento de niños y adolescentes que cada vez más se valen del uso de nuevas tecnologías para diversos fines.

– 183 –

Inteligencia artificial al servicio de la convivencia humana La inteligencia artificial puede ser conceptuada como la capacidad de las máquinas para adquirir un tipo de inteligencia similar –en algunos aspectos– a la de los seres humanos: aprender, percibir y decidir cuáles caminos seguir de forma racional, ante determinadas situaciones, pudiendo así ayudarnos en la toma de decisiones. En un mundo de datos su uso se puede dar para los más variados tipos de servicios, análisis y toma de decisiones automáticas. Ejemplos no faltan. Muchos celulares ya contemplan aplicaciones que funcionan con reconocimiento de voz en donde usted puede conversar e interactuar con su «asistente personal» aplicaciones de GPS trazan las mejores rutas para llevarnos donde queremos y hasta carros autónomos son ejemplos ya existentes del uso de la inteligencia artificial. Como podemos notar, nuestra cotidianidad será cada vez más permeada por el diálogo entre hombres y máquinas aptas para realizar un gran tratamiento de datos y tomar decisiones más autónomas. Pero, delante de la toma de una decisión compleja, ¿qué hacer? Si un carro autónomo debe pasar por un accidente inevitable, ¿cómo programar el algoritmo para escoger cuál vida debe ser preservada? ¿La vida de un conductor que está dentro de un carro o la de un grupo de personas que está afuera? Es ese tipo de decisiones que las máquinas deberían aprender. Por este motivo se requiere el establecimiento de normas de privacidad, seguridad y ética para el desenvolvimiento de tales bienes y servicios, en especial cuando son direccionados para el uso de niños y adolescentes. En ese sentido, gran parte de los sistemas jurídicos a nivel global poseen normas y principios específicos para el cuidado del niño y del adolescente. Privacidad, seguridad y ética por arquitectura La privacidad por arquitectura (privacy by design) representa el empleo de mecanismos y soluciones que respetan los valores de privacidad durante todo el ciclo de vida de los datos recolectados en razón de aplicaciones, productos u otros servicios. En la misma línea, la seguridad por arquitectura (security by design) tiene por objetivo garantizar la seguridad de tales datos desde la

– 184 –

concepción de los productos y servicios. Los sistemas deben ser estructurados para entender los requisitos de seguridad, las normas de buenas prácticas y de gobierno y los principios generales previstos en esta ley y demás normas reglamentarias. Por último, y aún poco estudiada pero de extrema relevancia para la ética por arquitectura (ethics by design), también busca garantizar valores éticos desde la concepción de los productos y servicios, porque sin valores éticos la tecnología que debe ser utilizada al servicio de la convivencia puede ser responsable de segregar, discriminar y así perjudicar la convivencia humana. La Constitución Federal Brasilera prevé en su artículo 277 que «es deber de la familia, de la sociedad y del Estado asegurar al niño, al adolescente y al joven, con absoluta prioridad, el derecho a la vida (…), además de colocarlos a salvo de toda forma de negligencia, discriminación, explotación, violencia, crueldad y opresión». Por su parte, la recientemente promulgada Ley General de Protección de Datos Brasilera prevé que el tratamiento de los datos personales de niños y adolescentes debe ser realizado en su mejor interés y dispone al respecto la necesidad del consentimiento específico y en representación por uno de los padres o por el responsable para el tratamiento de datos de niños1. También, la Ley General de Protección de Datos Brasilera establece la privacidad y seguridad desde la concepción de las aplicaciones, conforme los artículos 46, §2º y 49 de la ley2.

1

2

La redacción del artículo citado: Art. 14: El tratamiento de datos personales de niños y adolescentes debe realizarse en su mejor interés, de conformidad con este artículo y con la legislación pertinente. § 1º: El tratamiento de datos personales de niños deberá realizarse con el consentimiento específico y destacado dado por al menos uno de los padres o el responsable legal. A este respectovéase la redacción de los artículos citados: (i) Art. 46: Los agentes de tratamiento deben adoptar medidas de seguridad, técnicas y administrativas aptas para proteger los datos personales de accesos no autorizados y de situaciones accidentales o ilícitas como destrucción, pérdida, alteración, comunicación o cualquier forma de tratamiento inadecuado o ilícito. (...) § 2º: Las medidas de que trata el caput de este artículo deberán ser observadas desde la fase de concepción del producto o del servicio hasta su ejecución; y (ii) Art. 49: Los sistemas utilizados para el tratamiento de datos personales deben ser estructurados para cumplir con los requisitos de seguridad, los estándares de buenas prácticas y la gobernanza y los principios generales previstos en esta Ley y las demás normas reglamentarias.

– 185 –

Hasta el momento, la legislación brasilera y gran parte de la legislación mundial nada disponen respecto de valores éticos por arquitectura. Frente a la ausencia de atribuciones de valores éticos corremos el riesgo de crear aplicaciones opacas que en corto tiempo podrán tornarse absolutamente imprevisibles. De acuerdo con Asimov (1993), «a un robot le es prohibido causar daño a un ser humano e igualmente permitir que un ser humano sufra injuria; un robot debe obedecer a los comandos de los seres humanos, excepto cuando tales comandos tengan conflicto con el primer mandato, ya que un robot debe autopreservarse desde que la auto-preservación no tenga conflicto con el primer y segundo mandato». Asimov agrega que «a un robot le es prohibido causar daño a la humanidad o permitir que la humanidad sea perjudicada», siendo éste el factor más importante de todos, debiendo por lo tanto servir de guía para el desenvolvimiento de las nuevas tecnologías, en especial cuando hablamos de inteligencia artificial y su uso en niños y adolescentes, quienes están envueltos en el mundo digital y son influenciados por decisiones autónomas de forma irreversible. Conclusión Pasamos de la sociedad de la información a la sociedad del desempeño (Han, 2017), donde, además del gran volumen de informaciones de datos, se valoriza mucho la adopción de soluciones rápidas para el mayor número de tareas en un breve tiempo. El desenvolvimiento de la inteligencia artificial contribuye a optimizar tal desempeño, ya que cada vez más somos guiados por decisiones automáticas, pero la mera realización de tareas sin respetar cualquiera de las normas y valores de privacidad, seguridad y ética se puede mostrar reprobable, pudiendo ocasionar el surgimiento de fórmulas discriminatorias o vacías de significado social. En esa línea se puede inferir que, para que la inteligencia artificial sea utilizada al servicio de la convivencia humana, se debe mostrar como fundamental la observancia de normas de privacidad, seguridad, trasparencia y ética desde la concepción de servicios y aplicaciones hasta su descarte o inutilización. Todavía más cuando están destinadas a niños y adolescentes, siendo cierto que esos valores solamente podrán ser realidad en lo cotidiano de la sociedad cuando sean

– 186 –

aplicados en armonía con una legislación bien constituida y con un solido y estructurado programa de educación digital. Referencias bibliográficas Brasil. Constitución de la República Federativa del Brasil. Presidencia de la República. 5 de octubre de 1988. Brasilia, DF. Brasil. Estatuto del Niño y del Adolescente, Cámara de Diputados, Ley N° 8.069, de 13 de julio de 1990. DOU de 16/07/1990 - ECA. Brasil. Ley General de Protección de Datos. Ley N° 13.709 del 14 de agosto de 2018. Brasilia, DF. Clarke, R. (1993). Asimov’s Laws of Robotics – Implications for Information Technology. Institute of Electrical and Electronics Engineers, Computer 26, 12, December, pp. 53-61. Han, B.-C. (2017). Sociedade do Cansaço. Traducción de Enio Paulo Giachini. Editora Vozes. Lessig, L. (2006). Code: and other laws of cyberspace. Version 2.0. Basic Books Publisher. Sánchez Vásquez, A. (2017). Ética. Traducción de João Dell’Anna. 37ª Edición, Rio de Janeiro.

– 187 –

¿Cómo la inteligencia artificial puede comprometer una generación de democracia en Brasil? ana carolina da hora, olabi daniel calarco, youth watch rodrigo roll, laboratorio de innovación en políticas públicas

¿Qué es la inteligencia artificial y cómo afecta la vida de los jóvenes? Con el desarrollo de la tecnología, varios aspectos de la vida han sido transformados, entre ellos las dinámicas en las que ocurren las interacciones y las formas en las que se toman decisiones políticas. Los llamados «filtros de burbuja» representan el ejemplo de una tecnología que utiliza la inteligencia artificial para facilitar las búsquedas de usuarios de Internet en buscadores o redes sociales, esto es, se trata de herramientas utilizadas por proveedores de Internet para personalizar el contenido que llega a quien accede a la web. No obstante, con la rápida y creciente influencia de Internet en la sociedad, en especial sobre los jóvenes, dichos mecanismos de «personalización de contenido» pueden ser facilitadores, pero también pueden impactar en una generación que se ha convertido en rehén de una tecnología que no domina y sobre la que no tiene las herramientas para cuestionar. Según un estudio1 divulgado por We are Social e Hootsuite, hay más celulares que personas en Brasil. Este dato demuestra el nuevo papel de destaque de las redes sociales y plataformas de búsqueda, y cómo los «e-ciudadanos» buscan e intercambian informaciones sobre todas las cosas, incluso la política. Eso se puede observar analizando la situación actual de Brasil y de otros países del mundo, donde las crisis políticas se ven reflejadas en las redes sociales vinculadas a conceptos como desinformación, fake news y sesgos algorítmicos. Comprender cuáles son las nuevas dinámicas por las que discurre 1

We Are Social, Global Digital Report 2018, World’s Internet user pass the 4 billion mark, New York, 2018. Recuperado de https://wearesocial.com/blog/2018/01/global-digitalreport-2018

– 189 –

la política y cómo los ciudadanos se vuelven agentes políticos a través del uso y consumo de estas tecnologías disruptivas, se torna fundamental para enfrentar los nuevos desafíos y amenazas para la democracia, que ya son otros muy diferentes de aquellos enumerados por los autores clásicos que abordan la democracia (Dahl, 1998; Przeworski, 1985). En la era de los algoritmos es poco lo que se se discute, aprende y debate sobre estas tecnologías en las escuelas, redes u otros espacios. A partir de eso, sin el conocimiento necesario, las nuevas generaciones son expuestas a la mayor cantidad de informaciones de la historia en solamente un lugar: Internet. Introducción: Cómo operan los filtros burbuja La justificación inicial es optimizar la experiencia del usuario, porque es imposible navegar por todo el material disponible en la red. Las miles de noticias por día en Facebook son un ejemplo de information overload, que es provocada en el usuario de Internet al proveer una cantidad superior de información de lo que cualquier individuo es capaz de procesar. Eso no es necesariamente un problema, en verdad es fundamental, ya que es exactamente para superar las limitaciones humanas que los algoritmos existen, pero conllevan impactos perversos, principalmente para los más jóvenes, quienes tienen en las redes la única experiencia de búsqueda de informaciones y de construcción de opinión política. Los filtros, al limitar contenidos en razón del usuario, crean cámaras de eco que generan una percepción equivocada de la realidad respecto de las demás personas que comparten la misma visión, siendo más fácil ponerse delante de noticias que refuercen el punto de vista del usuario que de las que lo refuten, y cuando eso sucede se produce un conflicto. Por eso es necesario enterarse de los daños del desarrollo de la tecnología, fomentando la formación crítica de las personas para que sean conscientes de las innovaciones y puedan realmente tener el derecho de elegir y basar sus decisiones en la mayor cantidad de información de calidad posible. El efecto más perverso de los filtros burbuja ha sido privar a los jóvenes del acceso a opiniones divergentes y construir una capacidad más crítica, capaz de debatir sin recurrir al discurso violento. Además,

– 190 –

los filtros limitan el enfrentamiento de las ideas. El filtraje algorítmico crea un universo exclusivo de información (PARISER, 2011) para cada persona, que considera sus preferencias inferidas a través del análisis del perfil de material consumido en la red como histórico de búsqueda online, likes en contenidos, tiempo gastado en determinados sitios y en el perfil del propio usuario2 como edad, sexo, género, educación y región en la que vive. El efecto burbuja artificial ha tomado proporciones tan grandes que prácticamente no hay manera de desafiarlas en las redes o recibir nuevos insights, quedándose sometidos a disparos de contenidos programados en los parámetros de los filtros, que condicionan el intelecto y crean zonas de confort. De esa manera, sin el debate, cercado de grupos de afinidades y amigos o posibles amigos que comparten las mismas opiniones, los usuarios se quedan limitados en una esfera pequeña de probabilidades de expansión. Los desafíos para la juventud Si hace pocos siglos el conocimiento era cercenado, ahora la información sofoca3. Eso sí, la universalización del conocimiento a través de las tecnologías digitales permite la democratización del acceso a la información y representa un gran triunfo. Los jóvenes podrían hacer parte de la generación mejor informada de la historia, pero su proceso de formación política y de ciudadanos críticos está profundamente comprometida por la incapacidad de reflexionar sobre la totalidad de la realidad y debatir puntos hasta que prevalezca el más razonable, lógico y estructurado, Porque es la generación que se informa online, dentro de las burbujas que ofrecen un espectro de la realidad, una fracción de lo que está en el mundo. Ella es realmente muy atrayente, ya que es un verdadero muro que garantiza una zona segura, espacios sin desgastes, en los cuales hay 2

3

Eso se suma a las burbujas sociales o «burbujas naturales», las cuales son intrínsecas a cada individuo, en razón de su proceso de socialización y oportunidades de acceder al capital económico, social y cultural que definen sus interacciones y papeles sociales, siendo capaces de aproximar o alejar personas. Es un fenómeno anterior a Internet, pero se refleja online, principalmente en las redes sociales. Grego, Maurício. «El contenido digital se duplicará cada dos años en el mundo». Revista Exame. Recuperado de .

– 191 –

una realidad alternativa que no es real. Al fragmentar la realidad, fragmenta a las personas y pone en jaque la dinámica de debates democráticos, en los cuales los puntos opuestos necesitan enfrentarse para que se sobrepongan los más ventajosos para la sociedad. Ese es el resultado de la capacidad de las personas de formular opiniones, exponerlas, defenderlas y adaptarlas, y que están impedidas por algoritmos que no son transparentes, lo que torna a los usuarios en irresponsables por lo que hacen, sin la habilidad fundamental de debatir, creyendo estar absolutamente e n lo cierto. Al limitarse este debate de ideas, las burbujas pueden tornarse todavía más crueles para los grupos minoritarios, como las juventudes y sus intersecciones minoritarias como negros, LGBTI+, refugiados, mujeres y otras minorías, porque se insertan en el debate político como pauta de resistencia y cuando se lanzan online no alcanzan a personas cuyas visiones sean consonantes a los discursos mayoritarios, por lo que no son capaces de expresar sus perspectivas. Además, cuando ese alcance sucede, por la naturaleza de las burbujas, es común que sean rápidamente repelidos con el discurso dañoso y violento que hace de Internet un ambiente no seguro para estos grupos. La discordancia se vuelve una fuente de malestar, y sin diálogo la democracia puede estar condenada, ya que ésta se cierne justamente en el pluralismo, en las posiciones controversiales, en el debate de lo que es incierto, polémico y desconcertante. Redes sociales como nuevos buscadores Puede parecer equivocado alertar sobre el filtraje algorítmico de los feeds de las redes sociales, toda vez que ellas representan una mera herramienta de aproximación de los individuos, acortando las distancias para que éstos interactúen y puedan socializar. Sin embargo, esa concepción de las redes sociales es extremadamente errada. Esos mecanismos de relación social en la Internet hace mucho que dejaron de ser sólo plataformas de interacción, pues hoy representan piezas claves para la obtención de información4.

4

Caldeira, João Paulo. «El 56% de las personas utilizan las redes sociales para informarse». Periódico GGN. Recuperado de .

– 192 –

Frente a esto, las redes sociales se han transformado en los nuevos buscadores de contenido para los usuarios. La cuestión es que eso puede significar un aumento del desconocimiento de la población sobre los filtrajes de contenidos, ya que la manipulación algorítmica de la información ya no es percibida por los usuarios. La perversidad de las burbujas y sus efectos (fake news, uso indebido de datos y harm speech) Debido a la falta de acceso a una diversidad de contenido y la descentralización de la comunicación de la información a través de los blogs y redes sociales, los rumores, las fake news y los fraudes pasan a un grado preocupante. Brasil vive una crisis de desinformación que viene desde antes de que Internet se volviese algo habitual. las fake news son resultado de eso. En este contexto es necesario comprender que las fake news no son solamente las noticias equivocadas o falsas, son también informaciones manipuladas para sesgar el debate político. El efecto es aún más cruel en la juventud que tuvo su vivencia social y política muy vinculada a las redes sociales y plataformas de búsquedas, siendo constantemente influenciada en su proceso de formación sin saber que eso ocurría. Acostumbrados a tener acceso a muchas informaciones sin tiempo para reflexionar sobre ellas, los jóvenes han tomado decisiones a partir de lo que los algoritmos les ofrecen, volviéndose en rehenes de sus burbujas. La participación política y su papel en la democracia: construyendo opiniones a través del debate En razón de las burbujas, los usuarios de Internet nunca estuvieron tan vulnerables a informaciones falsas o parciales. En Brasil la democracia es muy nueva. La Constitución Federal acaba de conmemorar 30 años poco después de las crisis institucionales políticas que se volvieron noticia alrededor del mundo. La generación de padres y abuelos que enfrentaron la sangrienta dictadura brasileña de 1964 a 1988, deja como legado una frágil democracia heredada por jóvenes que necesitan desafiar su capacidad de lidiar con informaciones. En un país con 147 millones de electores, más de 120 millones usan la

– 193 –

aplicación WhatsApp. De hacho el 66% de los electores brasileños comparte noticias políticas a través del whatsapp, según el Datafolha5. Y desde hace meses son bombardeados con fake news y deben lanzarse en el debate público con sus puntos de vistas, desafiando la burbuja social y algorítmica. ¿Cómo romper la burbuja? La respuesta no es simple. Es una generación completa de jóvenes que están cada vez más vulnerables a las burbujas y sus perversidades. Son limitados por la propia dialéctica material de sus trayectorias y ahora por sus propios datos e historia online. Parte del estrago ya ha sido causado y no puede ser revertido o impedido con cambios normativos. Es el surgimiento de una nueva era en la cual la relación de los hombres con la información está cambiando radicalmente y luego también lo estará la democracia. Las informaciones que hoy importan son las más atrayentes, es decir, aquellas con el contenido más envolvente y agradable, capaz de sorprender y motivar al usuario, pero nunca ha sido tan importante buscar lo que no está siendo visto y desconfiar de lo que está publicado. Toda información debe ser sometida al escrutinio del debate público, de la controversia y del enfrentamiento, y eso sólo se puede hacer desafiando las burbujas en su aspecto algorítmico y social. La discusión sobre cómo salvar la democracia es tan antigua como ella misma, pero la importancia de la (des)información es que el conocimiento es poder y necesita ser utilizado con responsabilidad; por más que el debate pueda ser incómodo, la falta de él puede ser peor. Por ello es necesario estar dispuesto a encarar lo que no se está de acuerdo, desafiando privilegios y zonas de confort. Esto se puede hacer de manera más técnica por el usuario, como evitar el rastreo automático de las plataformas, a través del usuario anónimo. Las compañías necesitan comprometerse más con la privacidad de los datos de los usuarios en el uso de filtros, dejando claro que ellos operan. Pero el principal cambio será el de los usuarios jóvenes que necesitan ser agentes activos y conscientes en las redes, construyendo 5

Oliveira, Joana. «WhatsApp, un factor de distorsión que esparce mentiras y aturde hasta el TSE». El País. Recuperado de .

– 194 –

online espacios de bienestar para que estas conversaciones ocurran, ya que es ahí donde la política será más realizada. No se puede cometer el error de fingir volver a los viejos tiempos de enfrentamiento, característico de la política tradicional. Los jóvenes también deben pensar en la inteligencia artificial y los algoritmos. No es más aceptable que solamente expertos desarrollen plataformas online y sus algoritmos. Es necesario llevar las creaciones al campo de la discusión. A partir de esta idea de algoritmos abiertos se vuelve extremadamente importante dividir la responsabilidad que hoy solamente se queda con quien crea la tecnología. Ella necesita ser dividida con quien también la utilizará, generando una transparencia mayor sobre lo que está siendo producido y volviendo el proceso tecnológico más ético delante de la sociedad. Cabe a los jóvenes ponerse en posición de buscadores de la verdad y no solamente confirmadores de sus propias opiniones, pues al mantenerse los muros de las burbujas, el extremismo ideológico será tan nocivo para la esfera pública democrática que ella no podrá resistir (Magrani, 2014: 222). Así deben ser seguidos los buenos ejemplos del uso de Internet para las discusiones políticas6, dándose transparencia también a casos como el ocurrido en las elecciones presidenciales7 de Brasil. Solamente con el debate será posible superar la desinformación y los desafíos que presenta Internet a la democracia, pero para eso necesitamos un ambiente seguro donde los y las jóvenes discutan libremente. Referencias bibliográficas Dahl, R. A. On Democracy. New Haven: Yale University Press, 1998 Magrani, E. Democracia conectada: la Internet como herramienta de compromiso político-democrático. Curitiba: Juruá, 2014. ONU Departamento de las Naciones Unidas para Asuntos Económicos y Sociales. Youth civic engagement. New York, 2016.

6

7

Wilson Gomes, Breno Fernandes, Lucas Reis y Tarcizio Silva. «Políticos 2.0: la campaña online de Barack Obama en 2008». Revista de sociología y política, Vol. 17 N° 34, Curitiba, 2009. Recuperado de . Cellan-Jones, Rory. «Cómo Facebook puede haber ayudado a Trump a ganar la elección». BBC Brasil. Recuperado de .

– 195 –

Pariser, E. The Filter Bubble: What the Internet is Hiding form you. New York, Penguin Press: 2011. Przeworski, A. Capitalism and Social Democracy, New York: Cambridge University Press, 1985. Senado Federal. Informe final - CPI: Asesinato de jóvenes. Brasília, 2016. UNFPA. Fondo de Población de las Naciones Unidas. Derechos de la población joven: Un marco para el desarrollo. 2ª Edición, Brasilia - DF, 2010.

– 196 –

Juguetes conectados y tutela de la privacidad de niños y adolescentes: explorando beneficios y desafíos chiara spadaccini de teffé, universidad del estado de río de janeiro eduardo magrani, its rio fabro steibel, its rio

Todos los días, «cosas» con capacidad para compartir, almacenar y analizar un alto volumen de datos se conectan a Internet. Incluso a la distancia ya se puede realizar el monitoreo y la gestión de esos dispositivos, los cuales, además de mejorar la calidad de vida de la población y la organización de las ciudades, sirven para aumentar la eficiencia de sistemas y procesos productivos. El incremento de la utilización de estas funcionalidades y la incorporación de la llamada Internet de las cosas (del inglés Internet of Things - IoT) en la vida de adultos, adolescentes y niños son visibles y traen innumerables beneficios. Relojes, heladeras, lectores de huellas digitales, detectores de movimiento, cámaras, máquinas de café, prendas de vestir y juguetes infantiles ya se encuentran conectados a Internet y presentes en las casas, trabajos y cuerpos de las más diversas personas. La Internet de las cosas puede ser entendida como un ambiente de objetos físicos interconectados con Internet a través de sensores, creando un ecosistema de computación omnipresente (ubicua), orientado a facilitar lo cotidiano de las personas y la introducción de soluciones funcionales en los procesos del día al día. Esta expresión busca designar todo un conjunto de nuevos servicios y dispositivos que reúnen al menos tres puntos elementales: conectividad, uso de sensores/actuadores y capacidad computacional de procesamiento y almacenamiento de datos. En esta estructura, objetos conectados a Internet interactúan unos con otros y procesan informaciones y datos en un contexto de hiperconectividad, con un incremento cada vez mayor de inteligencia artificial. Sin embargo, si la Internet de las cosas puede ofrecer nuevas e importantes oportunidades para la educación, facilitar tareas cotidianas,

– 197 –

proporcionar una interacción inédita entre niños y juguetes, auxiliar en tratamientos médicos, aumentar la seguridad de las viviendas y mejorar la calidad y la oferta de productos y servicios, por otro lado, en su utilización también es posible verificar problemas relativos a la seguridad de la información y al tipo de tratamiento conferido a la privacidad y a los datos personales de los usuarios. En ese ambiente, cuanto mayor sea el número de dispositivos conectados, más datos serán producidos. Es decir, cuanto mayor sea la cantidad de cosas «inteligentes» (que pueden ser dotadas de inteligencia artificial), mayor va a ser el volumen de datos sobre movimientos, preferencias y hábitos de sus usuarios, quienes a veces no tienen ni siquiera plena capacidad civil. Teniendo esto en cuenta, en el presente artículo se pretende destacar los principales beneficios que implican el uso de juguetes y dispositivos conectados, así como investigar desafíos a menudo encontrados en esas relaciones. En el campo de los beneficios ofrecidos por los juguetes conectados, diversos estudios apuntan a: la personalización y el dinamismo en la relación entre el niño y el juguete; la posibilidad de mejora en el aprendizaje del niño, en razón de que el dispositivo analiza y responde de forma individualizada sus contribuciones; y la mayor accesibilidad de tecnologías 3D y programación para ese público. En cuanto a los riesgos, especialistas ya resaltaron posibilidades de hackeo de tales dispositivos y su uso para el espionaje del ambiente donde se encuentran. Se constata además la falta de transparencia de algunas empresas sobre la recolección y el tratamiento de los datos personales de niños y adolescentes que interactúan con los juguetes, así como de terceros que se encuentran cerca de ellos y pueden tener sus datos sin siquiera tener conocimiento de eso. En cuanto al tratamiento de datos personales, se verifica que algunos términos de uso son vagos sobre la retención de datos y su posterior envío a terceros, mientras que otros imponen una recolección masiva de datos para la obtención de una experiencia integral con el juguete conectado. Otro punto que recibe críticas es la posibilidad de inserción de publicidad implícita de productos y servicios de socios comerciales durante las interacciones de los niños con los juguetes. A partir de las técnicas actuales de tratamiento de datos, los datos personales de los consumidores pueden incluso ser almacenados, a fin de crear

– 198 –

un perfil conductual para que la publicidad sea dirigida basada en la forma en que determinado consumidor (que puede ser un niño o adolescente) actúa cuando hace compras o reacciona a determinado estímulo. El proveedor tiene así la posibilidad de tener contar con información individualizada sobre sus consumidores, lo que le permite guiar el flujo informativo y la publicidad de manera particular para cada persona. Hay quien se preocupa también por el impacto que la relación con el juguete conectado puede generar en las formas de comunicación y expresión de los niños. Por regla general, la comunicación establecida con estos dispositivos es poco compleja y muchas veces se realiza en forma de comandos, siendo innecesario utilizar expresiones como «por favor» y «gracias». Esto podría influir negativamente en las formas de expresión de los niños, perjudicando su interacción con otros seres humanos. En última instancia, la diversión se ha convertido en un proceso de creación y tratamiento de bases de datos. ¿Cuántas veces el niño accedió al juguete? ¿Qué información ha intercambiado con él? ¿Quién tiene acceso a esa comunicación y dónde se almacenan los datos? ¿Qué se puede hacer con ellos, además de mejorar el rendimiento del juguete y del juego? Hay un debate complejo sobre el consentimiento de los padres y responsables para el tratamiento de los datos personales de sus hijos. Aunque los padres han consentido el uso del juguete e instalado una aplicación que les permite controlar el juego, hay aspectos nebulosos en esa relación que necesitan ser mejor debatidos. ¿Qué pasa si otro niño juega junto y se comunica con la muñeca o juego? Mientras cada vez más juguetes y juegos se conectan a la red, más temprano los niños pasan a utilizar Internet. Dos certezas provenientes de este escenario son: la transformación de las prácticas de diversión y los desafíos constantes para la protección de la privacidad y de los datos personales. En febrero de 2017, Alemania prohibió tanto la venta como la propiedad de una muñeca interactiva llamada My Friend Cayla, fabricada por la empresa estadounidense Genesis Toys, bajo el argumento de que el juguete contenía un dispositivo de vigilancia oculto que violaba las regulaciones federales sobre privacidad. La muñeca estaba equipada con un micrófono y usaba una aplicación

– 199 –

bluetooth para conectarse a Internet, lo que permitía que el juguete conversara y respondiera preguntas, al tiempo que intercambiaba datos con una empresa de software de reconocimiento de voz. Aunque pueda haber duda acerca de la caracterización de la muñeca como un dispositivo de vigilancia o espionaje, Alemania no está sola en las preocupaciones sobre la seguridad y privacidad de sus ciudadanos durante la interacción con dispositivos como éste. Una denuncia dirigida a la Comisión Federal de Comercio de Estados Unidos (Federal Trade Commission – FTC), por instituciones de protección de la privacidad y al consumidor, afirmaba que Cayla y un robot inteligente llamado i-Que violaban leyes de protección al consumidor, sujetaban a niños a la vigilancia continua y estarían entrando en casas de los Estados Unidos sin ningún estándar de protección de datos significativos. Las instituciones criticaron el alcance de lo que estaba siendo captado por los juguetes y posibles vulnerabilidades que ellos presentarían, lo que podría poner en riesgo la seguridad y la privacidad de sus usuarios. Años antes, en el caso de la muñeca Hello Barbie, ya se había advertido que el juguete presentaba vulnerabilidades y fallos de seguridad, de modo que los hackers podrían tener acceso a información personal del usuario y archivos de audio almacenados, además de transformar el micrófono de la muñeca en un dispositivo de vigilancia. Además, se planteó preocupación por el uso de la tecnología para el reconocimiento de voz, por enviar grabaciones de niños a empresas para su procesamiento, revelando posiblemente sus sentimientos y detalles íntimos. Este escenario parecía aún más complejo en Brasil, debido a la ausencia de una ley específica para la protección de datos. Aunque la Constitución Federal, el Código de Defensa del Consumidor (Ley Nº 8.078/90) y el Marco Civil de Internet (Ley Nº 12.965/14) establecían normas relevantes para la tutela de la privacidad y de los datos personales, se mostraba urgente la sanción de una norma propia sobre la temática, que valorase el consentimiento del titular de los datos y la autodeterminación informativa, protegiese de forma preferente a niños y adolescentes y colocase al país alineado con el Reglamento General Europeo sobre la Protección de Datos (2016/679). De esta forma, el 14 de agosto de 2018 fue sancionada en el país la

– 200 –

Ley Nº 13.709, que dispone la protección de datos personales de personas naturales. La mencionada norma prevé en su rol de principios disposiciones que preconizan, por ejemplo, la necesidad de observar la finalidad para la realización del tratamiento de datos, que deberá ocurrir para propósitos legítimos, específicos, explícitos e informados al titular; la adecuación, debiendo haber compatibilidad en el tratamiento, con las finalidades informadas al titular; la necesidad de que el tratamiento se limite al mínimo necesario para la realización de sus objetivos, con el alcance de los datos pertinentes, proporcionados y no excesivos en relación con los fines del tratamiento de datos; la transparencia, siendo necesario garantizar a los titulares informaciones claras, precisas y fácilmente accesibles sobre la realización del tratamiento y los respectivos agentes de tratamiento, observados los secretos comerciales e industriales; y la seguridad, para lo que se deben utilizar medidas técnicas y administrativas para proteger los datos personales de accesos no autorizados y de situaciones accidentales o ilícitas de destrucción, pérdida, alteración, comunicación o difusión. Respecto a los niños, a lo largo de su artículo 14 se afirma que el tratamiento de sus datos personales deberá ser realizado con el consentimiento específico y destacado dado por al menos uno de los padres o el responsable legal. En esta hipótesis de tratamiento, los controladores deberán mantener públicas las informaciones sobre los tipos de datos recolectados, la forma de su utilización y los procedimientos para el ejercicio de los derechos a que se refiere el artículo 18 de esta ley. Adicionalmente, los controladores no deben condicionar la participación de los niños en juegos, aplicaciones de Internet u otras actividades al suministro de información personal más allá de las estrictamente necesarias a la actividad. La inversión de las empresas en seguridad y en mecanismos que garanticen una tutela más efectiva a la privacidad de los usuarios durante el desarrollo y la utilización de los productos de IoT, así como la conciencia crítica de los consumidores sobre los posibles riesgos derivados de la interacción con dichos dispositivos, son fundamentales y ponen a menudo nuestras previsiones legales en cuestionamiento. Es importante tener en cuenta que todas estas tecnologías vinculadas a la IoT poseen vulnerabilidades y que, aunque tengamos normas

– 201 –

jurídicas que regulen con calidad temas relativos al uso de las nuevas tecnologías, el Derecho por sí solo no será suficiente para proteger de forma integral a las personas, debiendo ser también insertados en esa estructura regulatoria las normas sociales, el mercado y la arquitectura. Debido a que los dispositivos conectados son cada vez más complejos, incluso con mayor autonomía y comportamiento imprevisible, siendo dirigidos también para personas menores de edad, es necesario que los productores tengan mayor responsabilidad en el momento de la producción de esos dispositivos y que presten mayor atención a la fase de pruebas controladas, antes de que los productos se destinen a la comercialización. Además, es necesario el seguimiento de estos productos, el desarrollo constante de actualizaciones y el establecimiento de normas de seguridad y normas que permitan la reparación de las víctimas en casos de daños. Como reflexión final, vale recordar que aunque Internet esté siendo llevada a las cosas, ellas están conectadas a nosotros, es decir, las personas a quienes esas cosas van a proveer servicios y funcionalidades. Es en ese sentido que debemos comprender que estamos hablando siempre de una Internet de las personas. Por eso debemos evolucionar también en el análisis crítico acerca de la utilidad de esas creaciones y en las cuestiones de privacidad y seguridad que ellas implican, principalmente cuando los sujetos involucrados en la relación con esas cosas sean directa o indirectamente niños y/o adolescentes, sujetos en formación que muchas veces no tienen suficiente conocimiento y madurez para controlar y proteger sus datos personales y su privacidad adecuadamente.

– 202 –

Filter bubble y juicio crítico de jóvenes: consideraciones acerca de algoritmos y bienestar marcelo crespo, facultad de derecho de sorocaba gisele kauer, faculdad de derecho de são bernardo do campo

A squirrel dying in front of your house may be more relevant to your interests right now than people dying in Africa1. Mark Zuckerberg, creador de Facebook.

Este artículo pretende indicar cómo las burbujas constituidas por algoritmos en Internet, especialmente en las redes sociales, pueden influenciar a los jóvenes, distorsionando la realidad fáctica a partir de presentaciones de contenidos aparentemente relevantes para sus intereses, pero que limitan drásticamente la visión amplia del mundo. Desde de ejemplos prácticos e hipotéticos, este documento pretende que el lector reflexione críticamente sobre las filter bubbles y cómo pueden afectar el bienestar y el juicio crítico de los jóvenes. La idea de una mayor diversidad de medios de comunicación sonaba como una posibilidad de democratizar el conocimiento, de dar voz a un mayor número de personas y movimientos sociales, especialmente a las minorías. La posibilidad de la concepción de un ambiente en que todos podrían exponer sus versiones de hechos e historias personales y profesionales aparecía como una verdadera revolución y, tal vez, como una forma de enfrentamiento a los medios oscuramente tendenciosos. Parecía que surgía de una nueva esperanza para los entusiastas de la libertad de expresión y pensamiento, y que, desde entonces, el sentido crítico podría estar en protagonismo y quedar en evidencia, permitiendo que varios puntos de vista pudieran ser expresados desde una sola información/noticia, nacional o internacional, publicada 1

Una ardilla que muere frente a tu casa puede ser más relevante para tus intereses en este momento que las personas que mueren en África. (traducción del editor) – 203 –

por periodistas profesionales o cualquier otra persona. Existía la ilusión de que las generaciones más jóvenes tendrían acceso a un nuevo concepto de información. Todo esto resume la expectativa para la década de 2010, que pasó a ser nutrida desde los años 90, cuando por primera vez se introdujo la Internet comercial2. Pero no fue así como las cosas se concretaron. Lo que se creía que iba a ser la herramienta de un nuevo concepto de democracia, terminó siendo una transformación que levantó una verdadera muralla entre las personas, afectando las percepciones de la realidad, pese a la creencia de que habría más libertad y más neutralidad en la presentación, lectura y análisis de la información. Feenberg (1999) empleó el concepto fetiche de la tecnología como una forma de expresar que aquella reputada como neutra, eterna, a-histórica y sujeta a valores estrictamente técnicos es una construcción histórico-social, haciendo una comparación con el fetiche de la mercancía3 y exponiendo que «[...] lo que se enmascara en la percepción fetichista de la tecnología es su carácter relacional, justamente porque aparece como una instancia no social de pura racionalidad técnica» (Feenberg, 1999: 25). Es posible conjeturar que esa relación de distanciamiento respecto a lo que de hecho representan las tecnologías digitales viene, por lo tanto, de un no-cuestionamiento del contexto en que las redes sociales surgen, se desarrollan y de sus aplicaciones en nuestra vida cotidiana, lo que deriva en una problemática en que esa inobservancia perpetúa en el espacio-tiempo una «perspectiva alienada que rechaza y no problematiza todo el proceso que ocurre en la sociedad de la información» (Castro et al., 2018), en la cual «las personas son dominadas por las cosas que ellas mismas crean» (Abreu et al., 2014).

2

3

Rede Nacional de Ensino e Pesquisa. A história por trás do 20 anos de Internet comercial no Brasil. Recuperado de https://www.rnp.br/destaques/historia-por-tras-20-anosinternet-comercial-brasil. Según Marx (1996): «Una relación social definida, establecida entre los hombres, asume la forma fantasmagórica de una relación entre cosas. Para encontrar un símil tenemos que recurrir a la región nebulosa de la creencia. Los productos del cerebro humano parecen dotados de vida propia, siendo figuras autónomas que mantienen relaciones entre sí y con los seres humanos. Es lo que ocurre con los productos de la mano humana en el mundo de las mercancías. Lo llamo fetichismo [...]».

– 204 –

El escenario arriba narrado nos indica una alienación contextual que ganó nombre propio en la literatura. Así surgió el término Filter Bubble, utilizado por primera vez por el activista político, Eli Pariser en su obra The Filter Bubble: What the Internet Is Hiding to You (2011), refiriéndose al aislamiento intelectual que puede resultar del algoritmo4 usado por determinados sitios web para hacer una discriminación de información supuestamente relevante para cada usuario, sobre la base de datos como historial de exploración, búsqueda, likes, localización e interacciones. La «burbuja», así, es una personalización extremada del uso tecnológico que cada uno de nosotros hace de los medios sociales. Pariser (2011) pretendió explicar el fenómeno señalando que la búsqueda de determinadas palabras en sitios de búsqueda, por personas diferentes, trae resultados distintos. Como ejemplo se imagina lo siguiente: un usuario busca «BP» en Google y recibe noticias relacionadas con la inversión de British Petroleum, mientras que otro usuario recibe resultados indexados a la fuga de petróleo de Deepwater Horizon. Esto con búsquedas hechas con las mismas palabras clave. Así, los resultados distintos pueden afectar significativamente la percepción de los usuarios sobre la empresa. Se ve, entonces, que el concepto de Pariser trae la idea de un «ecosistema personal de información», aislando a todos de cualquier tipo de disonancia cognitiva al limitar lo que tenemos acceso. Ilustremos con un caso típico brasileño. En 2018 presenciamos una elección de polarización extrema que refleja ese perfil del elector frente a la era de la digitalización, el cual vive dentro de la referida Filter Bubble. Los electores de ambos candidatos a la Presidencia de la República llegaron a un punto en que estaban básicamente «hablando con la pared». Es decir, los argumentos acababan dirigidos a aquellos que tenían una orientación político-ideológica semejante, 4

Los algoritmos no son más que fórmulas para la ejecución de determinadas tareas o para la resolución de problemas. En el sentido matemático, el algoritmo se define como una secuencia finita de instrucciones bien definidas y no ambiguas, cada una de las cuales deben ser ejecutadas mecánicamente o electrónicamente dentro de un tiempo finito y con una cantidad de esfuerzo finita. Pensando en su inserción en el medio de la tecnología de la información, que es exactamente la base con la que trabajaremos aquí, un programa de computadora es esencialmente un algoritmo que le indica a la computadora los pasos específicos y en qué orden ellos deben ser ejecutados.

– 205 –

que ya estaban de acuerdo incluso en votar al mismo candidato. Los diálogos se volvieron surrealistas y se hacía nítido que las noticias de un lado ya no llegaban más al otro. La percepción de realidad se volvió algo desgastada e incluso una utopía frente a la masificación de información que permeaba cada una de las burbujas. Esta situación nos remitió en varios aspectos a la carrera presidencial americana de 2016. Y cuál es el mejor ejemplo ilustrativo de esta polarización de información si no la demostración realizada por The Wall Street Journal5, en la que es posible visualizar dos versiones del feed de noticias de Facebook, lado a lado: una versión volcada a un elector conservador y otra versión volcada a un elector liberal, cada uno con un sesgo completamente distinto sobre los mismos asuntos. Pensemos en otras situaciones, ahora hipotéticas para ser analizadas a partir de los ejemplos anteriores. Imaginemos a dos personas que viven en este mismo condominio, pero la primera nació y creció en este ambiente que llamaremos «controlado», siempre manteniendo este estándar de vida. La segunda vino de uno menos acomodado y sólo después de la adolescencia pasó a vivir en este ambiente, teniendo algunas amistades de los tiempos anteriores, aunque no las veía con tanta frecuencia. ¿Cuál de estas dos personas tendrá mejor comprensión del ambiente externo? La primera persona en la analogía aquí presentada, es el joven que creció utilizando las redes sociales, ya lidiando con la realidad moldeada por un algoritmo de filtro desde temprano. La segunda es una persona adulta que vivió la Internet anterior a los algoritmos de filtrado que tenemos hoy, o incluso vivió la era de las noticias anteriores a Internet, viendo noticias de las redes sociales, aunque sin tanta frecuencia. Debemos destacar aquí que, en nuestro ejemplo ficticio, la segunda persona es consciente de que el condominio cerrado es un ambiente controlado, muy diferente de la realidad externa, por más que eventualmente se olvida de esa información. En nuestro ejemplo de Internet, la idea es la misma porque estamos lidiando con jóvenes que ya han tenido acceso a Internet en medio de la era del fetichismo tecnológico, sin comprender la tecnología de hecho, pero viviendo 5

The Wall Street Journal. «Blue Feed, Red Feed». Recuperado de . consultado el 4 de noviembre de 2018.

– 206 –

ya en una inmersión en la que ésta se ha vuelto intrínseca al día a día. Pero si los resultados obtenidos en una búsqueda o el contenido que aparece en el feed de una red social están en concordancia con lo que el usuario piensa, le gusta y desea ver, ¿cuál sería el problema de este direccionamiento? ¿Cómo puede afectar el bienestar de los jóvenes, por ejemplo? La selectividad algorítmica puede ser beneficiosa para mostrar los contenidos que tengan más sentido para los que leen. Es innegable que será más placentero ver posturas de amigos, de personas cercanas o de contenidos de grupos con los que se tiene más afinidad. La cuestión es que esta extrema «personalización» puede afectar la percepción de la realidad fáctica del mundo polarizando pensamientos, incluso suicidas, depresivos o criminales en general. Cuando las sugerencias de contenido dejan de señalar qué canciones o películas están más cerca del gusto del usuario y pasan a mostrar contenido que genera odio, ansiedad y otros males, el bienestar del usuario puede estar seriamente comprometido. Este es un problema bastante actual, ya que Facebook es una de las principales fuentes de noticias, en especial para los millennials6. En 2018, una encuesta apuntó que las redes sociales más utilizadas por los estadounidenses, especialmente Facebook, siguen como principal medio de información de los jóvenes7. Nos atrevemos a decir que la tendencia es que estas cifras aumenten en la medida en que se amplíe el alcance de las nuevas tecnologías digitales. Entonces, por primera vez habrá personas que formarán su opinión político-ideológica frente a este fenómeno. Esto se presenta como un riesgo considerable para el desarrollo del sentido crítico de los jóvenes, tal como afecta la comprensión de la democracia, ya que tendrán mayores dificultades para lidiar con la idea de oposición, debates, libertad de expresión y empatía. Posiblemente eso derivará 6

7

La generación Y (también llamada generación del milenio, generación de Internet o millennials) es un concepto de la sociología que se refiere a la banda demográfica de los nacidos entre la década de 1980 hasta mediados de la década de 1990, siendo sucedida por la generación Z. El concepto, que va más allá de la fecha de nacimiento, alude a la generación que nació en medio del ascenso tecnológico, con facilitación material y en la era post-urbanización. Pew Research Center. Social Media Fact Sheet. Recuperado de .

– 207 –

en que muchos jóvenes buenos se vuelvan personas malas, en una subsunción de la obra de Philip Zimbabue, El efecto Lucifer. Por ende, es claro que las ponderaciones sobre el uso y la transparencia de los algoritmos transitan por temas naturalmente polémicos como la libertad de expresión, la privacidad, la democracia y la confianza en las sociedades permeadas por la tecnología (Crespo et al., 2016). Por todo ello, y por el bienestar de los jóvenes, es fundamental y urgente el establecimiento de una agenda para discutir algoritmos. Referencias bibliográficas Castro, J. et. al. (2018). Fetiche da Tecnologia: Um Estudo Sobre o Perfil do Pedagogo e os Desafios da Educação Frente ao Uso das Redes Sociais na Sociedade Contemporânea. Recuperado de . Crespo, M. Quem tem medo de algoritmos? Recuperado de . Crespo, M. et. al. (2017). Inteligência artificial, algoritmos e decisões injustas: é hora de revermos criticamente nosso papel em face da tecnologia. Recuperado de . . (2016). Por que precisamos de uma agenda para discutir algoritmos? Recuperado de . Cunha, C. et. al. (2013). Fetichismo e alienação do trabalho na atualidade a partir das concepções de Marx. En: XIII Semana de Economia da UESB, 13, 2014, Bahia. Anais da XIII Semana de Economia da UESB - 19 a 24 de maio de 2014, Vitória da Conquista/BA, p. 10. Farnam Street (2017). How Filter Bubbles Distort Reality: Everything You Need to Know. Recuperado de Feenberg, A. (1999). A filosofia da tecnologia numa encruzilhada. Recuperado de . Marx, K. (1996). O Capital: Crítica à Economia Política. São Paulo: Nova Cultural, v. 1. Novaes, H. & Dagnino, R. (2004). O Fetiche da Tecnologia. Revista ORG & DEMO. V. 5, N° 2, p. 189-210. Recuperado de . Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding From You. Penguin Press. Zimbardo, P. (2012). O Efeito Lúcifer: Como Pessoas Boas Se Tornam Más. Editora Record. 4ª ed.

– 208 –

El modelo de gobernanza de múltiples partes interesadas para aplicaciones críticas de sistemas autónomos cláudio lucena, universidad estadual de paraíba (uepb) martín p. silva valent, universidad de palermo de derecho y gobernanza de tecnología

Los sistemas capaces de tomar decisiones con un grado creciente de autonomía, más independientes de la intervención humana, están cada vez más presentes de manera más intensa y son más relevantes en la vida cotidiana de los individuos. Supervisar y ejercer los niveles necesarios de control sobre tales estructuras no es tarea fácil, entre otras razones porque la dinámica a la que obedecen ya no se adecúa a las herramientas, procesos o a las instituciones que tradicionalmente se ocuparon de esta supervisión y control. Este texto propone explorar los modelos de múltiples partes interesadas como una alternativa para enfrentar estas cuestiones. Describiendo brevemente algunas experiencias concretas de espacios que funcionan con base en estos procesos de múltiples partes interesadas y observando su adecuación particular al manejo de recursos en el ambiente de Internet, se plantea que se generen estándares de gobernanza en circunstancias donde la adopción de sistemas autónomos sea crítica o de alguna manera representen riesgo significativo para los derechos y garantías de las personas o intereses públicos en el espacio digital.. Además de ser más apropiada para la gobernanza del ecosistema de algoritmos, esta es una alternativa más receptiva y que ofrece menos obstáculos a la llegada, inclusión y participación de los jóvenes en los procesos en comparación a estructuras convencionales y más rígidas, considerando que el sistema plantea una necesidad de inclusión y apertura por diseño de los afectados.

– 209 –

Algoritmos, sensores y datos como componentes de sistemas autónomos Los algoritmos junto con los datos y los sensores que los recopilan están en el centro de una revolución digital que ha impulsado la transformación social, económica, cultural y política en todo el mundo. Las tareas y actividades tradicionalmente humanas están siendo delegadas a sistemas cuyos algoritmos presentan características cada vez más autónomas y que son capaces de mejorar y aprender por sí mismos, mediante el uso de redes neuronales, múltiples capas de representación y otros métodos y técnicas conocidos como algoritmos o sistemas computacionales inteligentes1 (Magrani, 2018: 25). La incorporación generalizada de estos sistemas autónomos2 en prácticamente todos los campos de la acción humana3 conlleva la posibilidad de interferir en las esferas de derechos y obligaciones de las personas físicas y jurídicas, lo que evidentemente hace que este fenómeno traiga desafíos regulatorios que no se han visto ni afrontado hasta ahora. Podemos comenzar por dos elementos claves. Primero, qué tipo de control debe mantenerse sobre estos desarrollos técnicos con impactos sociales, económicos y humanos significativos; segundo, la naturaleza y el grado de conocimiento que la sociedad debe tener sobre la forma en que se toman estas decisiones automatizadas. Al principio se pensó que la transparencia era el enfoque correcto para abordar el problema (Frank, 2015), pero los algoritmos involucrados en estas herramientas y su comportamiento orgánico e inesperado, una vez en acción, permiten una transparencia, al menos en la forma en 1

2

3

Si bien se suele denominar como inteligencia artificial a un amplio rango de tecnologías, hay que destacar que esas confusiones semánticas deben ser cuidadosamente diferenciadas para comprender la realidad de la tecnología en cuestión, pues no todo sistema capaz de desarrollarse y operar de manera autónoma califica como inteligencia artificial. De ahí que algunos autores prefieren referirse a inteligencia computacional, algoritmos inteligentes o denominaciones más exactas en cada caso, como pueden ser las redes neuronales o el machine learning cuando corresponda. Más informacion del «European Group on Ethics in Science and New Technologies Artificial Intelligence, Robotics and ‘Autonomous’ Systems» en: . Desde el acceso a información, la censura y filtrado de contenido, la comunicación entre personas y dispositivos, las finanzas personales y globales, el transporte, la educación, la salud, los procesos democráticos o el entretenimiento, entre otros.

– 210 –

que actualmente la entendemos, muy poco significativa (Diakopoulos, 2013). Por eso, un enfoque que parece más prometedor es el de la responsabilidad (Cath et al., 2016), para garantizar que una persona humana o jurídica tenga una responsabilidad razonable en caso de que una decisión automatizada perjudique a otros, generando así una estructura de incentivos adecuada en cabeza de quien tiene la capacidad de minimizar el daño, maximizar la utilidad e internalizar las externalidades negativas de estas tecnologías (Buchanan et al., 1962). Un último enfoque que vale la pena mencionar consiste en mantener una supervisión general sobre los sistemas autónomos, en vez de poner en el rol de contralor al individuo afectado. Esta perspectiva reconoce que las topologías de las redes (Pagallo, 2013) son demasiado complejas para permitir abordar el problema de la supervisión con una sola herramienta social, en especial en cabeza de un individuo, y busca una combinación de formas y técnicas para impulsar, diseñar e influir en este control, asegurándose de que por más que un individuo no esté personalmente involucrado, la sociedad como institución sigue desempeñando un papel de garante de sus intereses legítimos (Bonnefon et al., 2016). Este es el enfoque de la gobernanza (Massimo et al., 2016). Gobernanza por modelos de múltiples partes interesadas Los acuerdos de gobernanza no convencionales, comúnmente denominados u organizados como modelos de múltiples partes interesadas (Kurbalija, 2016), han crecido en importancia y presencia en la última década. Su fin es involucrar categorías de jugadores más abarcativas y exhaustivas que los modelos tradicionales, buscando ampliar el alcance de su representación o participación directa en los debates, consensos y posteriores implementaciones, formando así políticas públicas e instituciones legítimas que optimicen la utilidad social y la eficiencia de la herramienta que se pretende coordinar. Algunos ejemplos de las categorías de partes interesadas que exceden a la representatividad estatal son, la sociedad civil, el sector comercial, la academia, los técnicos, los jóvenes, entre otros4. Cada objeto de gobernanza tendrá su propio universo de categorías dinámicas. 4

Más información en: .

– 211 –

En los modelos de múltiples partes interesadas, las partes con intereses afectados reconocen la importancia de factores a compartir con otros actores como la representación equitativa, responsabilidad, comunicación, transparencia, y la necesaria participación en la estructuración y proceso de toma de decisiones que culminan en acciones que afectan esos intereses y al sistema en sí. La noción conlleva una idea general subyacente de mejorar la participación en los procesos de toma de decisiones, y como tal ha estado emergiendo rápidamente y adquiriendo una relevancia significativa en los últimos años. Se podría argumentar que estos modelos más que ideales políticos son necesidades técnicas para poder desarrollar eficientemente, y en favor del conjunto de la sociedad, fenómenos que por su naturaleza no pueden ser gobernados por los sistemas tradicionales con igual eficacia. Estudios recientes (Gasser, 2015) intentan comprender cómo se forman y estructuran estas categorías de partes interesadas, o grupos de interés, ya que varían dependiendo de la materia, zona geográfica o cultura. La sociedad china, por ejemplo, definitivamente tiene percepciones de categorías diferentes que la inglesa, y cuando se trata de organizaciones globales, estas idiosincrasias deben asumir compromisos para llegar a consensos sobre la estructura misma. Por otro lado, estos modelos se consideran dinámicos, en contraposición con los modelos tradicionales. Esto significa que además de ser construidos por todas las partes interesadas a través del consenso, lo que da legitimidad al espacio, esa legitimidad es constantemente revisada y el modelo nunca deja de desarrollarse para subsanar sus faltas y adaptarse a las nuevas realidades. Una novedad institucional comparado a cómo operan los estados-nación cuyos modelos en muchos casos no se han alterado en su esencia desde hace siglos. A su vez, definitivamente hay relaciones asimétricas en todo el modelo que producen diferencias en la influencia y roles que tienen, asimetrías que en la mayoría de los casos son reflejo de la realidad. Por ejemplo, el sector de la sociedad civil tiene menos recursos que el comercial y suele estar menos organizado y ser más heterogéneo. Los procesos idealmente son imparciales y neutrales, dentro de lo posible, y en general contienen las asimetrías, pero no las resuelven. Por ejemplo, requiriendo consensos unánimes para tomar decisiones críticas que equilibren la balanza a pesar de las asimetrías de la

– 212 –

realidad, obligando a las partes a buscar un consenso que no puede forzarse tan fácilmente con el privilegio de uno sobre otro. El modelo de múltiples partes interesadas en gobernanza de Internet Si bien la gobernanza de múltiples partes interesadas suele ser referida en el contexto de la gobernanza de Internet, no es el único escenario posible a considerar. Es interesante observar que los procesos de gobernanza de Internet han confluido en alguna medida relevante en este tipo de modelos de múltiples partes interesadas, al menos en sus valores y en el acuerdo o necesidad de abordar al fenómeno desde la gobernanza y no desde el gobierno estatal o jerárquico. Por ello, no hay duda que el universo de Internet fue quizás el que más contribuyó a su reconocimiento y legitimidad como herramienta institucional. En otras palabras, Internet probablemente no se habría convertido en lo que es hoy si no fuera por el modelo de gobernanza de múltiples partes interesadas en el que se desarrolló. Es un argumento contrafáctico, pero nos permite afirmar que dentro de lo esperable, Internet se desarrolló con suficiente estabilidad, seguridad, resiliencia, apertura y neutralidad como para permitir sucesos positivos y de magnitudes jamás pensadas en sus momentos iniciales, y eso es una medida de éxito relativo de los modelos de múltiples partes interesadas usados. Por ejemplo, la cooperación y coordinación esencialmente técnica, pero también política, de múltiples partes interesadas ha estado vigente durante casi 50 años en el entorno del Grupo de Trabajo de Ingeniería de Internet (IETF), una comunidad donde la práctica de decisiones por consenso no solo funciona, sino que además funciona mejor que las prácticas tradicionales de aplicación de la ley. Los intereses en juego en Internet en sus primeros momentos eran mucho menos complejos que los temas transversales que están hoy en el centro de atención en lo que respecta a la gobernanza de Internet, lo cual demandó el desarrollo de estos modelos de múltiples partes interesadas para poder abordarlos. Lo mismo podría ser cierto para otros problemas globales que desafían los marcos tradicionales de gobierno.

– 213 –

Participación significativa e institucional de la juventud Los modelos de gobernanza necesitan por diseño, y no sólo por deseo político, incluir perspectivas, aspiraciones, intereses y necesidades de las generaciones más jóvenes. Esto implica darles una voz significativa, seria y lo más directa posible en el proceso. Por ello, los espacios de múltiples partes interesadas son especialmente adecuados para el propósito, ya que, además de los aspectos más evidentes de recibir a las diversas partes interesadas en los procesos, una verdadera estructura de múltiples partes interesadas ofrece barreras mucho menores para los grupos de interés que están dispuestos a unirse y que están formalmente menos organizados siempre que sumen legitimidad a ese proceso. Ese es exactamente el caso de la juventud. Son un grupo no formalmente constituido, heterogéneo y marginalizado de casi todos los procesos de desarrollo como actor directo, pero que en el contexto de modelo de gobernanza de múltiples partes interesadas es recibido con los brazos abiertos, generando incluso las estructuras necesarias para su adecuada interacción si fuese necesario. Se han implementado experiencias con un impacto positivo significativo, como el Observatorio de la Juventud, que dentro de la estructura de la Internet Society (ISOC, coordinador del IETF) organiza a los jóvenes para que participen de diferentes procesos de la gobernanza de Internet, tanto a nivel local como en su arista global; o la Coalición de Juventud por la Gobernanza de Internet (YCIG), que coordina a los jóvenes para que puedan participar desde un lugar institucional en el Foro de Gobernanza Global (IGF) organizado por una secretaría de la Asamblea General de las Naciones Unidas (ONU); o el programa de formación, inclusión y exposición de NextGen de la Internet Corporation for Assigned Names and Numbers (ICANN); todas ellas instituciones de gobernanza de Internet con un modelo de múltiples partes interesadas. Por una gobernanza de múltiples partes interesadas inclusiva de la juventud en sistemas autónomos de usos críticos En conclusión, si bien el ejercicio jurisdiccional de los estados, es decir su capacidad de gobernar ejerciendo sus poderes y procesos, es una realidad ineludible en parte del campo de sistemas autónomos, queda en evidencia que es imperante construir y revisar nuevos modelos – 214 –

más abarcativos, incluso complementarios al Estado y sus funciones y capacidades, que convoquen a todos los actores en el campo de sistemas autónomos. En especial para los sistemas autónomos de usos más críticos como en la conducción de automotores, operación de servicios básicos, acciones policiales preventivas, sistema educativo, mercado laboral, mecanismos de participación democrática y en general cuando su impacto puede significar crisis financiera, marginalización de un sector de la población, se afecten derechos humanos o el orden público. Esto implica que toda la cadena de desarrollo, implementación y quienes carguen con las consecuencias de utilizar sistemas autónomos de usos críticos participen en un modelo de gobernanza inclusivo, como el de múltiples partes interesadas, que permita que esta tecnología maximice la utilidad social respetando los intereses de la juventud y a la vez garantizando una aplicación eficiente de esas decisiones. Los modelos tradicionales de gobierno con el Estado como eje y árbitro, por más que sean necesarios, ya no son suficientes para las nuevas realidades que presenta la tecnología (Tomson et al., 2018). Dada la naturaleza de las actividades que están conectadas con el entorno digital, la escala es potencialmente masiva y transnacional respecto a los problemas relacionados con las decisiones tomadas por los sistemas autónomos y las consecuencias futuras, en especial en usos críticos. La dinámica de este ámbito y la posición absolutamente privilegiada de quienes desarrollan esta tecnología, como las empresas y su cadena de producción, plantean además la necesidad de nuevos espacios de coordinación y diálogo. Es plausible que una parte de la carga de administrar situaciones relacionadas se comparta con ellos, haciendo mucho más eficiente el proceso regulatorio. Es por eso que los esfuerzos e iniciativas de múltiples partes interesadas valen la pena ser explorados para construir un sistema de gobernanza de sistemas autónomos que responda mejor a una realidad que exige la participación de todos los actores involucrados, entre ellos la juventud, actores que en última instancia deberán desarrollar, implementar o soportar las consecuencias de dichas tecnologías y de los nuevos estándares de responsabilidad y conducta. Por ejemplo, se podría alcanzar un consenso sobre a las reglas de rendición de cuentas como una estrategia válida que internalice externalidades

– 215 –

y permita proteger intereses legítimos. El caso de la gobernanza de Internet ha mostrado que no debería ser imposible imaginar estas herramientas trabajando en un mundo cada vez más global, conectado y dinámico cuyos sucesos pasan más rápido, con más frecuencia y más consecuencias, ya que en última instancia estos modelos intentan replicar esas dinámicas de la realidad, y no a la inversa, en donde la realidad se intentaba encuadrar en un diseño institucional abstracto. El modelo de múltiples partes interesadas no sólo estaría más alineado con la realidad particular de los sistemas autónomos, sino que también incentivaría la participación de los jóvenes al promover el desarrollo de procesos de gobernanza cuya legitimidad radica en dar voz significativa a todas las voces afectadas. El modelo de múltiples partes interesadas aprovecha los conocimientos y formas únicas de interactuar y entender el ambiente de sistemas automatizados de la juventud, tanto porque en ello radica su legitimidad, pero también porque de eso depende la eficiencia de sus decisiones. Sin las perspectivas de la juventud, el ambiente de sistemas autónomos no puede ser desarrollado eficientemente maximizando la utilidad social ni internalizando sus externalidades. Referencias bibliográficas Bonnefon, J.-F., Shariff, A. & Rahwan, I. (2016). The Social Dilemma of Autonomous Vehicles. Science 352, no. 6293: 1573-576. Buchanan, J. M., & Craig Stubblebine, W. (1962). Externality. Economica 29, no. 116: 371. Cath, C., Wachter S., Mittelstadt, B., Taddeo, M., & Floridi, L. (2017). Artificial Intelligence and the ‘Good Society’: The US, EU, and UK Approach. Science and Engineering Ethics, 2017. Chopra, S., & White, L. (2011). A Legal Theory for Autonomous Artificial Agents. Ann Arbor: Univ. of Michigan Press. DeNardis, L. (2014). Protocol Politics: The Globalization of Internet Governance. Cambridge: MIT Press. Diakopoulos, N. (2013). Algorithmic Accountability Reporting: On the Investigation of Black Boxes. Tow Center for Digital Journalism. Recuperado de:

Domingos, P. (2018). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. New York: Basic Books, a Member of the Perseus Books Group.

– 216 –

Gasser, U., Budish, R., & West, S. M. (2015), Multistakeholder as Governance Groups: Observations from Case Studies. Berkman Center Research Publication No. 2015-1, Jan. 14, 2015. Recuperado de: . ICANN Accountability & Transparency Frameworks and Principles (2018). Recuperado de: ICANN’s Multi-Stakeholder Model Grace Ayres (2018). Recuperado de: . Kurbalija, J. (2016). An Introduction to Internet Governance. Msida, Malta: Diplo Foundation. Magrani, E. (2018). A Internet Das Coisas. Rio de Janeiro, RJ, Brasil: FGV Editora. Massimo, D., & Pagallo, U. (2016). The Pros and Cons of Legal Automation and Its Governance. European Journal of Risk Regulation 7, no. 02: 323-34. Multistakeholder Cooperation: Reflections on the Emergence of a New Phraseology in International Cooperation (2013). Retirado de . Pagallo, U. (2013). Good Onlife Governance: On Law, Spontaneous Orders, and Design. The Onlife Manifesto, 161-77. Pasquale, F. (2016). Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press. Solum, L. B. (2009). «Models of Internet Governance». Internet Governance, 48-91. Statement on Artificial Intelligence, Robotics and Autonomous Systems European Group on Ethics in Science and New Technologies: Brussels (2018). Luxembourg: Publications Office. Tomson, D. & Morar, D. (2018). Opinion | A Better Way to Regulate Social Media. The Wall Street Journal. Recuperado de .

– 217 –

Narrativas transmedia

Presentación de la temática: ¿narrativas algorítmicas? Retos y oportunidades para (humanos y) proyectos transmedia en tiempos de machine learning e inteligencia artificial anahí lovato y fernando irigaray, universidad nacional de rosario.

Entre las vertiginosas mutaciones del ecosistema de medios, en plena cuarta revolución industrial, los desarrollos de inteligencia artificial, data mining y machine learning, entre otros procesos, nos enfrentan a profundos cuestionamientos sobre las relaciones entre humanos y no humanos, al tiempo que abren un universo de posibilidades técnicas con gran potencial para la experimentación e innovación narrativa en el campo transmedia. A modo de introducción, este artículo revisa, en primer lugar, los alcances y consecuencias del procesamiento de nuestros datos y huellas digitales por parte de los grandes monopolios de Internet, su función de gatekeeping y el efecto burbuja generado por ciertos algoritmos con el objetivo de relevar algunas claves analíticas y establecer un marco teórico posible para la consiguiente lectura crítica de los textos aportados por los autores que participan de la presente sección. Sobre la base de procesos de convergencia tecnológica, digital y cultural, el ecosistema de medios ha sufrido profundas (y aceleradas) transformaciones en las últimas décadas. Entre las mutaciones más trascendentes, Éric Sadin (2018) subraya la preeminencia de operaciones computacionales a gran escala que consiguió instaurar una gestión electrónica de muchos campos sociales. Para el filósofo francés, la universalización de la interconexión y la ‘madurez algorítmica’ alcanzada en tiempos contemporáneos construyeron «un conocimiento artificial dinámico capaz de recoger, filtrar y distribuir para entidades o individuos el conjunto de flujos considerados ‘pertinentes’» (2018: 23). Por su parte, el economista alemán fundador del Foro Económico Mundial, Klaus Schwab, sostiene que estamos transitando la cuarta revolución industrial, tras haber atravesado tres grandes disrupciones

– 221 –

previas: la primera, de índole mecánico, fue disparada por la máquina a vapor; la segunda fue motorizada por la electricidad y permitió la producción en masa; la tercera estuvo marcada por las tecnologías digitales, la computación, Internet y la automatización de muchos procesos. La actual revolución industrial (la cuarta), en cambio, no es exclusivamente tecnológica, sino que se caracteriza por «la fusión entre tecnologías y su interacción a través del dominio físico, digital y biológico» (Scolari, 2018b). En esta etapa las transformaciones ocurren en varios campos, muchas veces interrelacionados, como la robótica, la inteligencia artificial (IA), la nanotecnología, la computación cuántica, la biotecnología, Internet de las cosas (IoT), la impresión 3D, los microsensores, blockchain, la bioimpresión y los vehículos autónomos, entre otros. En este marco, los desarrollos de IA, potenciados por otros campos de investigación, abrieron un universo de aplicaciones posibles en diferentes ámbitos de la vida humana. Sus perspectivas de uso y crecimiento parecen no tener límites. Se trata de la emergencia de una humanidad ya no sólo interconectada, hipermóvil, que hace del acceso un valor capital, sino que, de ahora en adelante, está hibridada con sistemas que orientan y deciden comportamientos colectivos e individuales, bajo modalidades todavía discretas, pero ya pregnantes, y que están destinadas a extenderse hacia numerosos campos de la sociedad (Sadin, 2018: 60). Ciertamente, la producción de contenidos, la industria de medios y los intercambios comunicativos no resultaron ajenos a tales extensiones. La experimentación y apropiación de las posibilidades técnicas abiertas por los conocimientos, herramientas y habilidades propias de data mining, la robótica, la realidad virtual, el desarrollo de algoritmos y el machine learning, entre otros procesos, comienzan a hacerse visibles en todas partes. Nuestras actuales prácticas de comunicación en plataformas conectadas están atravesadas por cientos de procesos de IA que se nutren de nuestros datos, comportamientos y huellas digitales. Dichos procesos también son aprovechados en el diseño, la producción, la circulación, la distribución, el consumo y la apropiación de relatos transmedia. Los artículos contenidos en esta sección hacen un

– 222 –

valioso aporte a la tarea de mapear la implementación, los usos y las oportunidades que ofrecen los sistemas de IA para las narrativas transmedia. Las máquinas aprenden: datos y machine learning Según apunta Natalia Zuazo (2018), desde la década del ’60 hasta nuestros días, el trabajo de enseñar a las computadoras a leer demandó grandes esfuerzos. Para la investigadora, que las computadoras puedan leer significa, básicamente, que las mismas sean capaces de procesar distintos lenguajes, así como programar las reglas y gramáticas de los códigos que utilizamos cotidianamente en nuestra vida (hiper)mediada. Esa posibilidad se multiplicó por millones con las personas que hoy producen petabytes de datos por segundo. Con esa información, los programas hoy tardan cada vez menos tiempo en aprender los patrones humanos y hacer predicciones. Con el machine learning los algoritmos se encuentran y son conectados con los resultados. De alguna manera, aprenden. Pero también, si los programas son predatorios, calculan las debilidades de los usuarios y las explotan (Zuazo, 2018: 85). Las enormes marejadas de datos constituyen la base fundamental para el entendimiento creciente que adquieren los procesadores. Los datos (copias cifradas de cada fragmento del mundo) actualmente se alojan en granjas de servidores o data centers diseminados sobre la superficie del planeta (Sadin, 2018). Analizando las prácticas de los grandes monopolios de Internet (Google, Microsoft, Facebook, Apple y Amazon, a los que se suma actualmente Uber), Zuazo (2018: 79) sostiene que muchos han reconvertido su enfoque desde el mobile first al IA first: Esto significa utilizar la enorme cantidad de datos que poseen (que nosotros les damos cuando cliqueamos aceptando en sus términos y condiciones) para entrenar a sus programas, con una cantidad de información que ninguna otra compañía ostenta. El entrenamiento (o machine learning) permite dar un salto en la programación de los nuevos productos, porque en vez de pensar todas las opciones posibles por sí mismo, las toma de la experiencia real de los usuarios, las procesa y las ordena. Por ejemplo, con todas las fotos subidas a la web de una serie de imágenes de paisajes puede

– 223 –

reconocer en qué lugares hay más montañas o sierras, en cuáles calles y avenidas. Además, si aprende a reconocer las letras de los carteles, puede entender, a través de una foto, cómo se llama un negocio y ofrecernos información al respecto. O ‘leer’ una cara y sugerirnos de qué persona se trata, como sucede cuando subimos una foto a Facebook y nos sugiere cuál de nuestros amigos es, con bastante exactitud [...] Todos estos avances son, en esencia, útiles para nuestras vidas. El problema es que pueden también usarse en nuestra contra.

En la presente sección, Maximiliano Bron se ocupa de analizar el caso Netflix desde la perspectiva de su implementación de procesos de machine learning y big data. Para el investigador de la Universidad Nacional de La Rioja (Argentina), la plataforma de streaming hace uso de IA aplicada a los tiempos de ocio y diversión. Aprovechando las extraordinarias capacidades de procesamiento de datos de las computadoras y los enormes volúmenes de información que los usuarios producen, la IA que aplica Netflix genera experiencias de usuario con altos índices de satisfacción. Netflix sabe quiénes somos, a qué hora nos conectamos, desde qué dispositivos, qué días de la semana. Sabe qué series y películas vemos y cuáles abandonamos. Conoce a nuestros actores y actrices preferidas. Analiza si aceptamos rápidamente sus propuestas o invertimos tiempo en bucear más profundo. A partir del procesamiento de datos en torno al comportamiento de los usuarios y de sus acciones anteriores, el sistema realiza proyecciones sobre sus acciones futuras para (intentar) ofrecernos una experiencia mejor adaptada a nuestros gustos y deseos y así mantenernos enganchados a su oferta. Para Zuazo (2018: 80-81) eso es lo que buscan Google, Apple, Facebook y otras grandes empresas: cuando anuncian que ‘sus computadoras podrán pensar por nosotros’. Significa que podrán conocernos profundamente como para prever nuestros patrones de comportamiento a partir de nuestras búsquedas, imágenes que les ofrecemos, datos de lugares que visitamos. En última instancia, comprenderán nuestros deseos. En cierta forma ya lo hacen y no es ciencia ficción. En un mundo donde las computadoras, teclados y el mouse desaparecen, las cámaras, pantallas, micrófonos y altavoces se vuelven ubicuos y se ‘camuflan’ dentro de las paredes, ropas o rincones de las oficinas. Ayudados por los ‘servicios en la nube’, acceden de manera omnipresente a lo que nos rodea: miran, escuchan, hablan e incluso pueden hacernos chistes. – 224 –

El aprendizaje de las máquinas requiere datos y en este sentido afirma la especialista: Mientras los humanos alimentamos los programas de esas empresas con nuestros clics, dejamos que las máquinas tomen decisiones sobre nuestras vidas [...] Google basó su esquema en la acumulación y en el análisis de datos. Eso hoy le permite tener una ventaja sobre sus competidores en los desarrollos de inteligencia artificial (Zuazo, 2018: 88).

Sin embargo, no sólo de la interactividad selectiva (Rost, 2004) aprenden las máquinas. Buena parte de sus avances hoy arraigan en el cuerpo como interfaz, en un mundo donde, de formas cada vez más invisibles e integradas a nuestra cotidianeidad, el sistema trackea insistentemente nuestros movimientos, comportamientos y emociones y donde, además, convivimos con robots y máquinas que aprenden, como sostiene Jorge Carrión (2018): «Nuestra realidad ha invertido la lógica de Blade Runner, ya que somos nosotros, los humanos, quienes tenemos que demostrar constantemente que no somos seres artificiales». «Llevamos una década seleccionando en nuestras pantallas la casilla ‘No soy un robot’ de las dos primeras versiones del programa reCaptcha», sentencia Carrión (2018) con una extraordinaria capacidad de enfrentarnos con el reflejo del espejo negro en que nos vemos a diario sin percatarnos. Imaginando un futuro que lleva años entre nosotros, anticipa además: «Cuando toda la ropa que vistamos esté conectada a Internet y no haya paso, latido, sudoración, pestañeo ni segundo de sueño que no sea procesado y traducido, a ver quién se atreverá a llevar una camiseta que diga ‘Yo no soy un robot’» (Carrión, 2018). En ocasiones, nuestros datos y huellas digitales se han convertido, también, en insumos para el desarrollo de proyectos narrativos, periodísticos y documentales. Es Jorge Vázquez-Herrero, de la Universidad de Santiago de Compostela (España), quien se encarga de mapear y analizar estos casos de data storytelling, comenzando por el robot empleado por The Washington Post para la automatización de la escritura de artículos, los usos de Reuters News Tracer para localización y verificación de información en tiempo real, y la utilización de chatbots por medios como The Guardian. Entre los

– 225 –

documentales interactivos basados en datos aparecen títulos como Digital Me, Do Not Track, Hacked, MonteLab y Quipu Project. El repaso incluye casos de relatos personalizados, videoclips basados en geolocalización, películas interactivas que se generan en tiempo real y museos que reaccionan a las intervenciones de los visitantes. Cuestión de algoritmos y burbujas En esta misma sección, Cleomar Rocha, de la Universidad Federal de Goiás (Brasil), se pregunta por las relaciones entre lo digital, las tecnologías y lo humano para recordarnos que, ontológicamente, la tecnología es parte de lo humano, pues no hay cómo desgarrar ni separar ambas porciones. «La tecnología no está en los bordes de lo humano, sino precisamente en su centro», puntualiza el investigador y agrega que, no obstante, la dinámica digital repercute en el eslabón más fuerte de nuestra cultura que es la vinculación humana, directamente ligada al modo como pensamos y construimos el conocimiento en la contemporaneidad: desde una lógica del acceso y del compartir. En este sentido, numerosos especialistas nos advierten sobre el efecto burbuja y la función de gatekeeping que cumplen ciertos algoritmos. Así lo señala Zuazo (2018), para quien hoy la información está concentrada en grandes monopolios, como la red social Facebook y el motor de búsqueda de Google, erigidos en nuevos guardianes de las noticias. Citando el trabajo de Eli Pariser (Director Ejecutivo de Upworthy, una plataforma para contenido viral considerado «significativo», con la expresa misión de «cambiar aquello a lo que el mundo le presta atención»), Carlos Scolari (2011) subraya la construcción de «burbujas» (bubbles) que filtran la información y nos alojan, en nuestras redes sociales, en un cómodo nicho hecho a medida donde sólo recibimos los contenidos «deseados». Potentes sistemas de tratamiento de datos nos ‘miman’, nos dan lo que queremos y erradican cualquier factor molesto. Tres elementos caracterizan estos espacios: 1) Estamos solos en nuestras burbujas, 2) La burbuja es invisible, y 3) Nosotros no elegimos estar en la burbuja. Podríamos decir que nuestra vida digital se desarrolla en ‘interfaces personales’, ámbitos diseñados por el código que determinan nuestra dieta informativa (Scolari, 2011).

– 226 –

Para Zuazo (2018), el filtro burbuja tiene consecuencias sociales, políticas y culturales, profundiza prejuicios y limita nuestra posibilidad de acceder a opiniones e ideas diferentes a las nuestras. Además, considera que la intermediación de los algoritmos de las redes puede afectar a la democracia, aunque produce, también, nuevas formas de activismo en medios sociales. La tesis de Pariser es que las redes nos imponen nuevas cámaras de ecos o burbujas de filtros donde las decisiones ya no sólo las toman personas, sino máquinas. «Las burbujas creadas por redes sociales son programadas con inteligencia artificial [...] todavía no le estamos demandando la misma ética que a los medios. La pantalla de tu computadora es cada vez más una especie de espejo unidireccional, que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que cliqueas», dice Pariser (Zuazo, 2018: 109). Ciertamente, la serendipia y la creatividad pierden terreno en un entorno hecho de burbujas de información personalizada. «Si la innovación proviene del cruce de ideas [...] las burbujas informativas, al filtrar los datos, impiden el surgimiento de nuevas relaciones entre elementos dispares», señala Scolari (2011), limitando también nuestras chances de encontrarnos con información y procesos interesantes por simple azar. Pionero en el campo de la realidad virtual e instalado en pleno Silicon Valley (para Sadin, epicentro de la «silicolonización» del mundo), Jaron Lanier insiste en aconsejarnos huir de las redes sociales. En un artículo publicado recientemente por el sitio pijamasurf (2018), advierte que los algoritmos de los gigantes de la industria han creado un nuevo modelo económico donde el comportamiento de los usuarios es el producto. Según Lanier, nuestro comportamiento está siendo permanentemente modificado para adaptarlo a situaciones cada vez más beneficiosas a los intereses de las corporaciones. En su libro Ten Arguments for Deleting Your Social Media Accounts Right Now, Lanier acuña el acrónimo Bummer (Behaviours of Users Modified, and Made into an Empire for Rent) para referirse a la gran maquinaria de manipulación de comportamiento de la que, según el experto en ciencias de la computación, somos engranajes. Para Lanier, Bummer es una máquina que opera con seis elementos básicos: la necesidad de conseguir atención en las redes sociales, la

– 227 –

vigilancia (y el espionaje) sobre la vida de todos, el atiborramiento (o atracón permanente) de contenido, el direccionamiento de los comportamientos (a menudo apelando a la emoción y la adicción), los negocios con terceras partes interesadas en influenciar nuestros comportamientos y, finalmente, los perfiles falsos y bots que moldean el ambiente (The Guardian, 2018). En su tarea selectiva y clasificatoria, los algoritmos pueden, además, asumir actitudes discriminatorias hacia las personas. Se trata de una situación descrita por Scolari (2011). Estos dispositivos algorítmicos están orientados a la predicción de nuestros movimientos y acciones. Los propietarios de LinkedIn aseguran que pueden predecir dónde estaremos trabajando dentro de cinco años… Esta información basada en nuestra performance anterior implica grandes riesgos a nivel personal ya que una vez que hemos sido «fichados» y «perfilados» por los sistemas, nuestras posibilidades profesionales o como ciudadanos pueden verse muy afectadas. Podemos ser objeto de discriminación por parte de los algoritmos. Así lo advierte también la matemática estadounidense Cathy O’Neil, autora del libro Armas de destrucción matemática: «Un algoritmo (o la celebrada IA, que ‘no es más que un término de marketing para nombrar a los algoritmos’) es tan machista, racista o discriminador como aquel que lo diseña» (del Castillo, 2018). La especialista está, asimismo, convencida de que la próxima revolución política en el mundo se dará por el control de los algoritmos. Normalmente los algoritmos son un sistema de puntuación. Si tienes una puntuación lo suficientemente elevada se te da una opción, pero si no la consigues se te deniega. Puede ser un puesto de trabajo o la admisión en una universidad, una tarjeta de crédito o una póliza de seguros. El algoritmo te asigna una puntuación de manera secreta, no puedes entenderla, no puedes plantear un recurso. Utiliza un método de decisión injusto. [...] Quien controla el algoritmo controla la definición de éxito. Los algoritmos siempre funcionan bien para la gente que los diseña, pero no sabemos si funcionan bien para la gente objetivo de esos algoritmos. Pueden ser tremendamente injustos para ellos (del Castillo, 2018).

– 228 –

Humanos, tecnologías, urgencias y emergencias A pesar de los arduos debates suscitados, el escenario mediático se muestra también propicio para la experimentación narrativa. Las narrativas transmedia de ficción y no ficción, en este sentido, procuran aprovechar la multiplicidad de plataformas y soportes disponibles para construir mundos narrativos expandidos, generando experiencias de usuario inmersivas y participativas. En uno de sus artículos, titulado «Do Androids dream of electric cows?», Carlos Scolari propone lo siguiente: Si consideramos que la interfaz es una red donde interactúan actores humanos y tecnológicos, entonces podemos escalar el modelo de análisis y comenzar a ver desde otra perspectiva la gran red sociotécnica. Desde esta mirada macro lo más interesante no está pasando tanto dentro de los dispositivos, sino en las relaciones y procesos que se están generando a partir de la interacción con otros actores de esa red (Scolari, 2018a).

Como hemos visto, en tanto formatos narrativos experimentales, con intenciones innovadoras, muchos proyectos transmedia han incorporado sistemas de IA, desde sus formas más simples hasta las más sofisticadas. Tales sistemas, de carácter autónomo, poseen una gran capacidad para adaptarse a (y aprender de) usuarios, entornos y contextos. La cultura millenial, en ese sentido, muestra un sinnúmero de usos y apropiaciones de gramáticas que incluyen capas digitales de IA y algoritmos que operan especialmente en los dispositivos móviles. Para Sadin (2018), a través del smartphone nuestra vida se encuentra hoy continuamente piloteada por agentes incorpóreos: Ellos son capaces todavía de ofrecernos la superposición de informaciones en simultáneo a nuestra percepción de lo real, gracias a las virtudes recientes de la realidad aumentada, lo que manifiesta visiblemente la intromisión de la técnica, renovada sin cesar, en el núcleo de nuestras experiencias contemporáneas (Sadin, 201: 83).

Los procesos de IA se activan para recorrer una ciudad usando Google Maps, pero también están presentes en las stories, memes, selfies, snaps y millones de microcontenidos creados mediante sistemas de reconocimiento facial, detección de objetos, filtros, máscaras, etc.

– 229 –

Bajo formas que se muestran, a priori, más lúdicas e inocentes, la realidad aumentada continúa exponiendo, en términos de Sadin (2018: 85), «la prueba patente de una potencia virtualmente omnisciente de la técnica que se adhiere ahora al cuerpo o hace cuerpo con nuestra percepción de las cosas». En clave de construcción de identidad, Sebastián Castro Rojas, de la Universidad Nacional de Rosario (Argentina), explora las publicaciones de los jóvenes en Instagram, abordando la mixtura de lenguajes que habitan en sus efímeras historias. Según las ideas expuestas por el investigador, el enjambre digital conecta y vincula, aunque también, en muchas plataformas, la vida personal e íntima se espectaculariza. Construimos nuestra socialidad de forma conectiva, en la instantaneidad, con relatos breves y fugaces. Desde Colombia, Sara Melissa Gallego Quiroz y Mauricio Vásquez Arias desarrollan una propuesta que navega entre la investigación y la producción, entre los lenguajes, las bases de datos y la experiencia de usuario, dando cuenta de la creación de un dispositivo de voz que utiliza inteligencia artificial para generar interactividad con los usuarios. Se trata de una estrategia multiplataforma para la apropiación del archivo del poeta colombiano León de Greiff que forma parte del proyecto transmedia denominado La Fanfarria Farragosa e incluye el diseño de una interfaz multimodal con énfasis en la interacción a través de la voz, integrando análisis semántico, comandos sociales e interfaz de usuario multimodal. La metodología empleada por los investigadores se describe como «poética de las bases de datos y, por otra parte, bases de datos poéticas», una mixtura que se pone en juego en la sistematización de la experiencia de diseño. En términos de Cleomar Rocha (y anticipando las próximas páginas), nuestra relación temporal es de urgencia y emergencia. La cultura digital se convierte en modo de pensar y actuar. Mientras tanto, todos los fragmentos de lo real se copian, se almacenan y se procesan bajo códigos binarios (Sadin, 2018). Los límites de las tecnologías, sus distopías, alcances y consecuencias han sido siempre explorados magistralmente desde los lenguajes artísticos. En la literatura y el cine, el canon incluye obras insoslayables como Un mundo feliz (Huxley), 1984 (Orwell), Fahrenheit 451 (Bradbury),

– 230 –

Metrópolis (Lang), La naranja mecánica (Kubrick), Blade Runner (Scott), Matrix (Wachowski), Minority Report (Spielberg), entre otras. Por supuesto, también, el fenómeno mundial de las cuatro temporadas de Black Mirror. En sus conversaciones sobre esta última serie, García Marín y Bordignon (2017) nos plantean una visión del ecosistema que pone en tensión los usos tecnológicos programados, recetados y pensados desde las corporaciones frente a la interpretación que las personas les dan a los dispositivos y que, a veces, no son los previstos. Continuamente, la herramienta se va resignificando, reorientando y los productos tecnológicos están en una suerte de estado beta que los lleva a funcionar más allá del uso previo establecido por el fabricante o productor original. Y en ese contexto, la serie es muy humana (2017: 235-236).

Desde un lugar más cercano y tangible, Kentukis, la última novela de la escritora argentina Samanta Schweblin (2018), nos enfrenta a cuestionamientos similares: qué sucedería si una persona (un absoluto desconocido, de cualquier lugar del planeta) pudiera husmear en nuestra casa y meterse libremente en nuestras vidas a partir de una tecnología que nosotros mismos adquirimos, con el deseo (más o menos consciente) de que así fuera. Detrás de cada Kentuki que se enciende en el mundo de Schweblin no hay algoritmos; hay otro humano. Hay lenguajes y códigos sociales, culturales, ideológicos y éticos que también son procedimientos, más o menos dinámicos, más o menos flexibles. Hay luces y sombras. Hay reglas y fisuras. Hay grietas. En las próximas páginas, la conversación se expande, se ramifica y se potencia. Siéntanse convidados a pensar con los autores, desde una perspectiva crítica, aunque conservando la mirada amplia, panorámica, con intenciones de romper los encuadres más rígidos y explorar el presente en 360º, a sabiendas de que la lectura será lineal, pero el pensamiento no.

– 231 –

Referencias bibliográficas 10 razones por las cuales debes abandonar las redes sociales, según Jaron Lanier, pionero de internet (9/18/2018). Pijamasurf. Recuperado de . Carrión, J. (25/11/2018). La invasión de los algoritmos. The New York Times. Recuperado de . Del Castillo, C. (29/10/2018). Entrevista a Cathy O’Neil: «La próxima revolución política será por el control de los algoritmos». eldiario.es. Recuperado de . García Marín, D. & Bordignon, F. (2017). Black Mirror: La interfaz y el algoritmo como instrumento de orden social. En R. Aparici & D. García Marín (Coords.). ¡Sonríe, te están puntuando! Narrativa digital interactiva en la era de Black Mirror, pp. 233-245. Barcelona: Gedisa. Rost, A. (2004). Pero, ¿de qué hablamos cuando hablamos de interactividad? Congresos ALAIC/IBERCOM 2004. La Plata. Recuperado de . Sadin, E. (2018). La humanidad aumentada. La administración digital del mundo. Buenos Aires: Caja Negra. Schweblin, S. (2018). Kentukis. Buenos Aires: Random House. Scolari, C. (22/11/2011). The filter bubble. Alguien te está mirando. Hipermediaciones. Recuperado de . . (3/03/2018a). Do androids dream of electric cows? La evolución de las interfaces móviles (I). Hipermediaciones. Recuperado de . . (10/06/2018b). La cuarta revolución industrial. Hipermediaciones. Recuperado de . The Guardian (2018). Six reasons why social media is a Bummer. Recuperado de . Zuazo, N. (2018). Los dueños de Internet. Cómo nos dominan los gigantes de la tecnología y qué hacer para cambiarlo. Buenos Aires: Debate.

– 232 –

La cultura digital y las formas del pensamiento cleomar rocha, universidad federal de goias

Este texto aborda la cultura digital a partir de los modos como la conectividad, la complejidad y la cultura del acceso y del compartir moldean el pensamiento contemporáneo. Estos modelos resultan en un imbricación de la experiencia humana, en una amalgama de pensar y hacer la cultura. Tomando como base el pensamiento inductivo y el abordaje exploratorio, se caracteriza a la cultura como forma de pensamiento, analizando el fenómeno digital como los modos del hacer y del pensar la cultura. Más aún, se considera como perspectiva el hecho de que la cultura digital, más que caracterizar la contemporaneidad, moldea las formas del pensamiento y sensibilidad humanos, en una relación de la complejidad y la conectividad, verificables en las prácticas de acceso y compartir que definen la actuación social contemporánea. La conclusión es que no sólo vivimos en una cultura, sino que somos formados por ella, recíprocamente. La llamada cultura digital es la forma en que pensamos y nos comportamos, en prácticas y experiencias afectivas, cognitivas y estéticas complejas, compartidas y derivadas de una sociedad mediada por tecnologías y medios digitales. Lo digital como cultura y pensamiento La capa externa del cerebro es responsable del procesamiento del lenguaje, la memoria, la atención y la conciencia. Conocida como el lugar del procesamiento cerebral más sofisticado y singular, la corteza cerebral se ha utilizado, por la función que ejerce, como una metáfora para la inteligencia. Paleocórtex, arquicórtex y neocórtex constituyen las áreas que responden a las percepciones, las sensaciones y la inteligencia, existiendo, por las sinapsis y las características de la – 233 –

neuroplasticidad, estudios que indican la reducción de la masa gris, como es popularmente llamado el cerebro, en función del desarrollo de la inteligencia colaborativa, también conocida como colectiva. De un modo u otro, está claro que el impacto de las tecnologías digitales alcanza la corteza cerebral, alterando sus características funcionales e incluso su constitución fisioanatómica, con repercusiones en la evolución de la especie humana a largo plazo. Algunas investigaciones del neurocientífico Miguel Nicolelis (2011 y 2016) identifican la vinculación de cerebros, en sinapsis tecnológicas, creando una nueva y poderosa red mundial de conexiones, llamada Brain-net, un tipo de conexión cerebro-cerebro vía tecnología, algo así como una Internet del cerebro. Este ejercicio, que hoy ya efectúa sus primeros pasos, establece una nueva matriz de pensamiento, cuya evolución se funda en la colaboración, contando con la tecnología y los medios. La tecnología basada en conectividad supera los medios clásicos, no más convergiendo a un solo punto, sino suplantándolos a partir de un solo fundamento: la conectividad. Si nuestro ejercicio contemporáneo de medios sociales y estructuras multiplataformas ya nos hace leer periódicos en el ordenador, ver la televisión en el móvil y hacer llamadas de video en las Smart TV, es de ponderar también que la aceleración tecnológica reinventará los modelos sociales, con empleos, funciones, prácticas sociales y culturales, en un contexto de ciudades inteligentes y, más que eso, de una inteligencia compartida, como es el caso de la propia tecnología, que es conocimiento científico culturalmente asimilado por una comunidad. En otras palabras, estamos inventando nuestro futuro cada día, siempre más apresurado, por la urgencia que tenemos de ser mejores, de hacer mejor las cosas. Si la zona rural está reinventando métodos de producción, con eliminación de empleos y aumento de productividad, las ciudades harán operaciones de crecimiento, a través de la creación de nuevas funciones y profesiones, para demandas menos relacionadas a la base de la pirámide de Maslow (1954). Estamos ejercitando, colaborativamente, nuestras inteligencias, componiendo una amalgama creativa de nuevas prácticas sociales. Es nuestra corteza operando en la modelización de la cultura, como siempre lo hizo.

– 234 –

Esta estrategia de integración cerebral con el mundo cultural es la que hace del ser humano uno de los animales más adaptables del planeta. La propia tecnología es parte de esa adaptabilidad, como estrategia para el aumento de la especie. Y no hay nada tan humano como la tecnología. Como producto de la inteligencia humana, la tecnología, sus aparatos y dispositivos son eminentemente humanos, resultado de una colaboración sincrónica y diacrónica, en un ejercicio que rasga el tiempo y da costura a la cultura contemporánea, en un bordado complejo. En ese sentido, forjar una oposición entre lo humano y la tecnología es inconcebible o, como mínimo, indefendible. Estamos, corporal y mentalmente, vinculados a la tecnología, como una perspectiva de lo humano, de su naturaleza. Nuestras vinculaciones no se definen en un modelo de oposición, sino de adherencia, sea en construcciones de pensamientos e imaginarios, sea en la perspectiva de órtesis y prótesis, físicas o mentales. Ontológicamente, la tecnología es parte de lo humano, de tal modo que no hay cómo desgarrar uno del otro. Esta pretendida separación resultaría en la escisión del humano contemporáneo, en alguna otra cosa en la que no nos reconocemos. Sería análogo decir que nuestro hijo biológico, sin nuestros genes, será mejor o peor, cuando de hecho ni siquiera sería nuestro hijo biológico. Asimismo, la tecnología no existe fuera de lo humano, por lo que no hay que hablar de lastre humano de la tecnología –ella es toda humanizada y fuera de ahí ella no lo es. La dimensión tecnológica de la cultura debe considerarse, incluso, como antídoto para la tecnofobia, ya que la tecnología jamás caminó fuera de lo humano y como parte de él no se desvincula. La superación de lo humano por la tecnología sería impensable, tal como nos la presentan las tramas ficcionales, sin embargo, necesita ser cuestionada desde la realidad de los hechos, de esa zona de pertenencia que ponemos en relieve. En este abordaje, la superación de lo humano por lo tecnológico presente en la cultura contemporánea es una perspectiva ya evidente. Nuestros modos de pensar, resolver problemas y actuar en el mundo son, en presencia de la tecnología y desde el punto de vista de varios aspectos, más eficientes y eficaces que en los moldes anteriores, con el impacto que se hace ver en varias áreas de conocimiento y actuación humanas.

– 235 –

Esta acepción de la tecnología como elemento de lo humano, que puede ser traducida como cultura, se enfatiza en conceptos como post-humano o trashumado, aunque la naturalización de la cultura ya nos permita apuntar a la versatilidad del cuerpo y de la mente, de tal manera que no se trata de una superación del cuerpo por la tecnología, sino de otra cosa: la tecnología como cultura, como parte de la condición natural –no de oposición– humana. Los bordes del humano no tangencian los productos de la cultura, sino aquello de lo que el humano escapa y justamente por escapar no osaré intentar nombrar. La tecnología, como conocimiento sustraído de la cultura y por lo tanto perteneciente a ella, está, en verdad, amalgamada al humano, haciéndose valer como un aspecto de él y no fuera de él. La tecnología no está en los bordes de lo humano, sino precisamente en su centro, al caracterizar la cultura que nos implica como seres biosociológicos. La oposición entre lo natural y lo tecnológico encuentra su ornitorrinco esencialmente en la cultura, producto social humano de todos los tiempos y naturalmente presente en el sujeto contemporáneo. Y es allí, en la cultura, donde la tecnología se inscribe, indeleblemente, en lo humano. Esas estructuras se ven en pleno ejercicio en eventos como la Internet de las cosas (IoT), que se asocian a teorías específicas (Latour, 2005), fomentando exactamente la vinculación de lo humano con lo no humano, en perspectivas fundantes para la especie. Cultura del acceso y del compartir El paso de una cultura de la posesión y la custodia hacia una cultura del acceso y del compartir es un hecho, aunque también es un hecho que los cambios culturales no ocurren en poco tiempo. La perspectiva de cambio ya era notada en la caracterización de las generaciones Baby Boomers, X, Y y Z, en servicios como Uber y AirBnb, en comportamientos socioculturales con el uso de tecnologías basadas en medios sociales y en la producción de conocimiento, con una tendencia a publicaciones científicas en plataformas gratuitas, llamadas open access. En el campo de la producción científica y cultural, los iconos de la cultura de posesión y guardia se dejaron seducir, finalmente, por la

– 236 –

nueva cultura. Bibliotecas y museos se abren a la perspectiva de nuevos diálogos sociales, reinventando su posicionamiento y su función en la sociedad conectada. De origen griego, la palabra biblioteca significa depósito de libro, refiriéndose a una caja o armario para la guardería de libros. La terminación teca se utiliza todavía en palabras como mediateca, pinacoteca, cinemateca, videoteca, filmoteca, hemeroteca y discoteca, esta última en franco desuso pero con el mismo sentido de lugar de guardia. Los museos, lugares orientados a la custodia de bienes naturales y culturales, se vincularon, a lo largo de su historia, al propio concepto de pasado, cuando, de hecho, su función es el ejercicio del diálogo con las culturas, valiéndose de la diacronía como principio. La revisión funcional de esos lugares, a partir de la lógica cultural del acceso y el compartir, no los hace abandonar los términos que los nombran, una vez que la lengua permite una reordenación semántica, actualizando sentidos en función de su uso. Por otro lado, algunas variaciones pueden acusar ese cambio lógico y su composición, como podemos notar en términos como biblioteca, biblioteca digital, mediateca y multiteca. El término biblioteca hace referencia a un espacio tradicional que reúne libros impresos, visiblemente alineado con sus acervos (posesión) y preservación (guardia). A su vez, las bibliotecas digitales migran sus acervos, coleccionando bits que virtualmente se actualizan como libros y afines. La mediateca es un fenómeno más reciente, normalmente un espacio de la biblioteca que se dedica a medios no impresos, como videos y audios, en formatos que cambian con el tiempo: de cintas de casete, microfilmes y VHS hacia CDs, DVDs y, más recientemente, e-books, podcasts y películas almacenadas en servidores sin conexión o en línea. En la cultura del acceso y del compartir, la multiteca gana relevancia al colocarse como un punto para compartir información en múltiples formatos, como libros, revistas, periódicos, películas, música, videos y toda suerte de informaciones, siempre digitales y en red, sin la necesidad de posesión o incluso guardia. Los servidores que guardan esa información no necesariamente pertenecen a la multiteca, que puede aprovechar la existencia de open access de varias informaciones ya disponibles para ofrecer enlaces directos a esas fuentes, en un

– 237 –

ejercicio de curaduría informacional que proporciona acceso y oportunidades para compartir. Las multitecas pueden o no tener un espacio físico, disponiendo, cuando hay, de dispositivos para el acceso al acervo ofrecido, pero esencialmente su hábitat es la red, y su actuación se establece en la selección y mantenimiento de informaciones, no de objetos. La dinámica digital repercute en la cultura, en su eslabón más fuerte: la vinculación humana. Los cambios que provocamos en museos y bibliotecas, además de la inserción de aparatos tecnológicos y la digitalización de acervos, indican una lógica mucho mayor, ligada al modo como contemporáneamente pensamos y construimos el conocimiento: la lógica del acceso y del compartir. Esta experiencia (Dewey, 2010) se singulariza como experiencia social (Dubet, 1994), según las lógicas de vinculación del mundo natural como la semiósfera, realizada por las interfaces computacionales (Rocha, 2014). Nuestro tiempo complejo En Grecia, Chronos (Khrónos) se refería al tiempo cronológico, secuencial y mensurable, a veces confundido con el titán Cronos, dios del tiempo e hijo de Urano y Gaia. En la Física, el tiempo es determinante para la velocidad, incluso la de la luz, tenida en Einstein como absoluta. La relación dimensional del espacio-tiempo es el sustrato para las teorías del surgimiento del mundo, habiendo investigaciones que buscan, en el Cosmos, los sonidos y luces del pasado que se refieran a la creación del Universo. En la Filosofía, el tiempo fue tema en Heidegger y Sartre, que, como varios otros pensadores, ganaron su tiempo –y la eternidad– discutiendo las temporalidades. En las narrativas, el tiempo diegético se desprende del cronológico, transportando, a través de la imaginación, la noción de continuidad para la discontinuidad en brechas y zeugmas temporales, flashbacks y avances, alternando pasados, futuros y presentes en espacios como la isla del día anterior o incluso en futuros que volvemos, sondeando memorias casi apagadas por la niebla del tiempo. Por lo demás, nuestra percepción temporal, subjetiva, hace que el tiempo cronológico sea elástico, como en aquellos momentos que se prolongan hasta la eternidad, o en aquellos días que corren

– 238 –

aceleradamente y cuando nos damos cuenta ya estamos a finales de año. En la computación, el tiempo real, como si hubiera otro, se refiere a la simultaneidad del procesamiento, como casi ocurre con las transmisiones en vivo, aunque el delay sea normalizado, tal como el tiempo mínimo que le toma al cuerpo atender las determinaciones cinéticas dictadas por los procesos del cerebro. De un modo u otro, nuestro tiempo ya es percibido como fragmentado, acelerado, en acciones y pensamientos, comportamientos y procesamientos. Nuestra simbiosis con máquinas nos hace pensar diferente, discontinuamente, en ejercicios de vinculaciones sintagmáticas y paradigmáticas, típicas de las sinapsis, caracterizadas por la neuroplasticidad apenas descubierta. Somos, al percibir el mundo y el tiempo, digitales. Nuestra relación temporal es de urgencia y emergencia. De urgencia por la aceleración fruto de la tecnología, que dobla su capacidad de procesamiento cada dos años (o menos), y de emergencia por las formas emergentes de comunicación y de experiencia social, mediadas por la tecnología, que ganan aires de inteligencia, sea colectiva, en aparatos o ciudades, a través de la conectividad. Los pliegues en el espacio-tiempo, tenidos en agujeros negros y agujeros de lombriz (wormholes), ya son hechos en los enlaces del hipertexto, en intervenciones tecnológicas del tiempo real y en mentes creativas que ejercitan el tiempo subjetivo, en la contemporaneidad de un tiempo fragmentado, dictado y mantenido por el tiempo cronológico, ya sea diegético, diacrónico o sincrónico. Temporalidades de un tiempo complejo. Conclusión La perspectiva de un cerebro que, por la cultura contemporánea, procesa información de manera similar a las computadoras, aprendiendo, junto a él, a ser más veloz y fragmentado, como nuestro tiempo indica, trae sustanciales cambios culturales. Lejos de estar asociada a una idea de nativo digital, la cultura traza planes de aculturación, actuando más por la vinculación que la misma hace con el sujeto, que exactamente por la franja etaria o la disponibilidad de recursos tecnológicos. Se trata de la cultura que nace en el sujeto y no precisamente del sujeto que nace en una cultura. Sólo así, con la cultura como algo interno,

– 239 –

constructo de la subjetividad, ella, la cultura, se vinculará al sujeto de modo indisociable. Es en ese sentido que la cultura digital se construye en lo contemporáneo, en relaciones que van más allá del propio aparato tecnológico. La cultura digital se convierte en modo de pensar y actuar, absolutamente articulada con el tiempo, con el desarrollo cerebral y con las prácticas sociales (Rocha & Santaella, 2015). Estas nociones de desarrollo de nuestro cerebro, de nuevos valores sociales y de aceleración y fragmentación temporal resultan, en su conjunto, en un orden cultural que apunta a algo mucho más relevante que el entendimiento de la cultura digital como el manejo cotidiano de computadoras y smartphones. Se trata de un imbricamiento entre la constitución de lo humano, sus modos de pensar y actuar, junto e integrado a los modos tecnológicos que implican lo social y la sociabilidad, no sólo en los jóvenes, sino esencialmente en el modus operandi humano, independientemente de la edad, aunque sea innegable que los cerebros en formación tengan una expectativa mayor de constitución de subjetividades fundantes. Esta expectativa de construcción de experiencias singulares vinculadas al contexto de la cultura digital fortalece la idea de que la juventud está más propensa a comprender mejor esa cultura (Rocha y Santaella, 2015 y 2017). De hecho, la comprensión se ha ordenado en cerebros capaces de reconocer y categorizar el conocimiento, por lo tanto en mentes más experimentadas. Los jóvenes, en este contexto, están en mejores condiciones para vivir la cultura digital, aunque les falte la experiencia del propio conocimiento que, cuando se fortalezca, anunciará los desafíos de una nueva y prometedora cultura digital. Referencias bibliográficas Dewey, J. (2010). Arte como experiência. São Paulo: Martins Fontes. Dubet, F. (1994). Sociologia da experiência. Lisboa: Instituto Piaget. Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network Theory. Oxford: Oxford University Press. Maslow, A. H. (1954). Motivation and personality. New York: Harper & Row. Nicolelis, M. (2011). Beyond Boundaries: The New Neuroscience of Connecting Brains with Machines-and How It Will Change Our Lives. New York: Times Books.

– 240 –

Nicolelis, M. et al. (2016). Wireless Cortical Brain-Machine Interface for WholeBody Navigation in Primates. Scientific reports, v. 6. Rocha, C. (2014). Pontes, janelas e peles: Cultura, poéticas e perspectivas e das interfaces computacionais. Goiânia: FUNAPE: Media Lab, Gráfica Ciar, UFG (Coleção Invenções). Rocha, C. & Santaella, L. (orgs.) (2015). A onipresença dos jovens nas redes. Goiânia: FUNAPE, Media Lab, CIAR, Gráfica UFG (Coleção Invenções). . (2017). Ignições. Goiânia: Gráfica UFG (Coleção Invenções).

– 241 –

Netflixficando la vida. Máquinas y humanos centrados en el usuario maximiliano bron, universidad nacional de la rioja

Netflix es un gran ejemplo de cambio de paradigmas en materia de inteligencia artificial aplicada al funcionamiento eficiente de una plataforma dedicada a optimizar tiempos de ocio y diversión. El uso de big data como herramienta para desarrollar la filosofía de user centric ha logrado que los índices de satisfacción de los usuarios resulten elevados, siendo el trabajo de conocer a los usuarios una parte central del proceso para ofrecerles todo lo que ellos están esperando. Hoy las diferentes utilidades de los datos sirven para elegir tanto el contenido como las estrategias a llevar adelante. En ese camino, las máquinas se han convertido en aliadas indispensables que ofrecen una oportunidad de desarrollo creativo y estratégico, combinando la experimentación de aprendizaje automático con la alta capacidad de procesamiento de grandes volúmenes de datos y experimentos de todo tipo. En la toma de decisiones en el mundo Netflix, las máquinas son socios indispensables que funcionan como una pieza fundamental del complejo engranaje de la plataforma. Con frecuencia nos resulta fácil pensar en la humanidad inserta en un enfrentamiento de dimensiones épicas con las máquinas. De hecho, el cine y la literatura se han encargado de sembrar, y regar en abundancia, para el florecimiento de ese imaginario. Sin embargo, ¿nos hemos preguntado dónde estamos hoy?, ¿en qué lugar están los automóviles voladores o los robots que limpian nuestros hogares? Silenciosamente, hemos asumido que esas escenas de ficción de 30, 40, 50 años atrás no eran más que una fantasía, y por más verosímil que pareciesen en ese entonces, poco se acercan a nuestra realidad

– 243 –

actual, aunque casi nada nos cuestionemos sobre esa misma realidad en la que estamos inmersos. ¿Existe hoy ese enfrentamiento entre personas y máquinas? Si la respuesta es no, ¿por qué seguimos viendo a las máquinas como una amenaza en la mayoría de los casos?, ¿por qué seguimos pensando en las máquinas en términos de rivalidad? En este sentido, como afirma Ben Jones (2018), Director Global Creativo de Google, «tenemos que dejar de pensar en las máquinas como rivales», a la vez que sostiene que «deberíamos verlas como una oportunidad para llevar nuestra creatividad al siguiente nivel». En esa misma dirección, varios jugadores de la industria lo han visto. El mismo Netflix lo ha visto y vaya que lo ha visto con claridad. Como habitantes de esta era de machine learning y big data, al pensar en inteligencia artificial aplicada a los tiempos de ocio y diversión aparece Netflix como gran ejemplo de los cambios de paradigmas. De hecho, es inevitable no mencionar a la gran plataforma de audiovisuales bajo demanda para referenciar los avances de la tecnología, el aprovechamiento del big data, la nanosegmentación de audiencias, el uso de herramientas de data mining, los algoritmos para distribución de contenidos, la personalización de consumos, los desarrollos narrativos centrados en el usuario, entre otros. Inteligencia artificial y Netflix Hablar de Netflix es hablar de tiempo de ocio, de cambios en consumos, de estrategias comerciales innovadoras, de modificaciones culturales, de nuevos consumos audiovisuales y de una serie de transformaciones que han marcado las tendencias de los últimos tiempos y que están directamente relacionadas con profundos cambios de hábitos que se han convertido en verdaderos signos de época. No obstante, lo anteriormente descrito es lo que se ve, lo superficial, lo observable, los diferentes patrones socioculturales que en los efectos pueden llegar a identificarse a partir de los resultados. Sin embargo, al observar el interior de la plataforma no se encuentra un proceso mágico. Para que todo suceda debe antes darse una serie de condiciones y cuestiones que pongan de manifiesto una estructura sólida pensada, planeada estratégicamente desde su diseño para lograr los resultados esperados.

– 244 –

Como sostiene Elena Neira (2018: 71), «la popularidad de Netflix no sólo se ha traducido en una adopción masiva del servicio. También ha sido el principal impulsor de un nuevo concepto, el entretenimiento del individuo, frente al tradicional entretenimiento del hogar», donde lo accesible, asequible y atractivo son los ejes centrales de la triple A del servicio que Netflix ofrece en la formación de esta nueva pero afianzada cultura de consumo en dispositivos conectados. Para que todas esas transformaciones sucedan, el big data ha sido un aliado estratégico en el negocio de la distribución de contenidos audiovisuales bajo demanda, lo que ha permitido la obtención de información y la toma de decisiones en relación al contenido y a sus suscriptores, como ejes centrales del funcionamiento estratégico. ¿Qué ha sucedido con los suscriptores? Netflix encontró en el big data la herramienta adecuada en el momento justo, entendiendo que el valor no estaba solamente en los contenidos, sino también, y necesariamente, en una óptima experiencia de usuario, por lo que el secreto de su éxito «se debe en gran medida a una filosofía user centric» (Neira, 2018: 70), donde los elevados índices de satisfacción de los usuarios resultan condición sine qua non para el éxito del modelo. Un modelo económico basado en la suscripción, donde la permanencia de los suscriptores es la piedra angular para que todo funcione, obligando a tener usuarios satisfechos y muy activos y entendiendo que la principal clave para el engagement es el tiempo de conexión al servicio. Conocer al detalle a los usuarios Netflix realizó el desarrollo necesario para conocer a todos sus usuarios, para ofrecer en consecuencia algo que ellos estaban esperando. Además, limitando el tiempo de búsqueda y el innecesario tiempo muerto utilizado en hallar algo que a priori está ligado a las tendencias de las búsquedas históricas de cada usuario. En este sentido, Netflix reconoce todo de nosotros: quiénes somos, a qué hora usamos la plataforma, desde qué dispositivo, qué días de la semana, cuáles son las películas que vemos, cuánto tiempo, con qué actores y actrices nos identificamos, o si, por ejemplo, los lunes

– 245 –

vemos drama y los viernes acción, incluso si abandonamos alguna película, ¿en qué parte la dejamos?, o ¿cuánto tiempo demoramos en decidirnos por uno de los contenidos ofrecidos?, ¿cuánto tiempo nos lleva desde que ingresamos a la plataforma hasta que comenzamos a ver algo en particular?, ¿aceptamos siempre las propuestas que nos ofrece la plataforma o buscamos por nuestra cuenta a través de alguna de las herramientas de búsqueda? En resumen, sabe absolutamente todo, así como también sabe si seguimos, consciente o inconscientemente, a algunos actores o alguna categoría específica. «Netflix no posee varios cientos de géneros, ni siquiera varios miles, sino 76.897 formas únicas de describir los tipos de películas (…) Captan docenas de atributos de películas diferentes. Incluso califican el estado moral de los personajes. Cuando estas etiquetas se combinan con millones de hábitos de visualización de los usuarios, esto se convierte en una de las ventajas competitivas de Netflix» (Madrigal, 2014). Es lo que se llama minería de datos, que remite al conjunto de técnicas indispensables para poder explorar eficientemente las grandes bases de datos que generan los propios usuarios y permiten identificar patrones, tendencias y reglas que ajustan estrategias posteriores. Neira afirma que (2018 :71): los datos tienen muchas utilidades. Sirven para elegir el contenido de terceros que ofertan, identificando los que interesan y efectivamente se consumen. También a la hora de producir contenidos. El análisis de datos les permite asimismo ofrecer recomendaciones personalizadas de contenidos a sus suscriptores y les ayuda a elegir, evitando que se sientan abrumados por el volumen de la oferta.

En definitiva, como usuarios somos una fuente inagotable de datos; es más, somos datos. Datos que son el resultado de nuestras decisiones. Decisiones que se sustentan en nuestra experiencia, en nuestras emociones, en nuestros gustos que a la vez están vinculados con una serie de variables. Variables que tienen que ver con nuestra propia construcción identitaria y que la plataforma sabe utilizar a su favor y a favor de la propia experiencia de los mismos suscriptores.

– 246 –

¿Pueden las máquinas conocernos mejor que las personas? Sí. No. Posiblemente. Tal vez. En realidad, no se trata solamente de una computadora, ya que sabemos que la máquina está programada, diseñada por otras personas que conocen las propias complejidades humanas, pero entre las enormes potencialidades de las máquinas sobresalen su extraordinaria capacidad de procesamiento de datos. Para Netflix son clave los datos y los modelos en la creación de una experiencia personalizada positiva para los suscriptores. Para lograrlo es crucual contar con muchas fuentes de datos relevantes y personas capaces para seleccionar algoritmos óptimos para convertir los datos en características del producto es crucial para lograrlo (Amatriain y Basilico, 2012).  Entonces, procesar datos se convierte en el gran diferencial y a partir de allí la gran pregunta tiene que ver con qué hacer con esos datos. Para Netflix son clave En este escenario aparecen articulaciones basadas en el machine learning, en las relaciones de datos, en las asociaciones a partir de accionamientos específicos, en redes neuronales artificiales, en el data mining, en una serie de cuestiones que tienen que ver con la técnica, la tecnología aplicada a intereses humanos en pos de un cumplimiento de objetivos que en este caso están vinculados con la razón comercial de la existencia de la propia plataforma y en el usuario como centro del negocio y del mismo funcionamiento del servicio. Saber qué ofrecer en cada momento determinado A partir del propio comportamiento de los usuarios, de acciones anteriores, se realizan proyecciones relativas a acciones futuras. Usuarios que se vuelven predecibles en el marco de comportamientos esperables, de acuerdo a asociaciones y elecciones pasadas que son parte del historial. Si esto sucede así, ¿quién es el responsable de realizar esas asociaciones que posteriormente permiten un desarrollo exitoso de innovación? A pesar de todos los avances tecnológicos, no todo es la computadora, no todo es la tecnología. Están las personas también y están trabajando juntas, a la par, potenciadas mutuamente a partir de las virtudes y características diferenciales de cada una. – 247 –

Netflix tiene muchas máquinas, pero también muchos científicos, técnicos, ingenieros y desarrolladores que hacen funcionar esas máquinas y que trabajan junto con ellas sacando lo mejor de éstas pueden sacar. Por ejemplo, el enfoque de la innovación algorítmica que combina la experimentación de aprendizaje automático fuera de línea con las pruebas A/B en línea ha sido utilizado durante muchos años y sigue siendo necesario para la plataforma. Para Netflix resulta de suma importancia probar antes de aplicar. Para eso, lo mejor siempre es investigar y decidir con base resultados siguiendo lo más básico del método científico, como por ejemplo el uso de grupos de control y grupos en los que se aplican determinados experimentos. De hecho, cada cambio de producto que la plataforma considera llevar adelante pasa por un riguroso proceso de prueba A/B, antes de convertirse en la experiencia de usuario predeterminada. Por ejemplo, los rediseños importantes han mejorado el servicio en gran medida al permitir que los suscriptores encuentren más rápido el contenido que desean ver. Sin embargo, son decisiones arriesgadas en las que siempre se realizan pruebas A/B, lo que ha permitido demostrar que la experiencia nueva es preferible a la antigua. Incluso las imágenes asociadas con los títulos se someten a pruebas A/B, lo que a veces resulta en un 20% a 30% más de visualización para ese título (Urban, Sreenivasan y Kannan, 2016). A modo de conclusión: máquinas y humanos juntos Como señalan los propios científicos de Netflix, la experimentación informa gran parte de la toma de decisiones en Netflix. Se diseñan, analizan y ejecutan experimentos con rigor para tener confianza de que los cambios que se están haciendo son los correctos para los suscriptores y para el negocio. Netflix lleva muchos años ejecutando experimentos en todos los aspectos del producto, mejorando continuamente la interfaz de usuario, búsqueda, recomendaciones, transmisión de video y más (McFarland, Pow y Glick, 2018). Por lo tanto, no todo es inteligencia artificial bajo el mundo de Netflix, sino que las decisiones en buena parte son compartidas entre máquinas y humanos. «Mientras las máquinas pueden resaltar

– 248 –

patrones, se requiere inteligencia humana para clasificarlos y aplicarlos» (Jones, 2018). Sin dudas, la capacidad de procesamiento de datos de las computadoras es enorme, de la misma magnitud de los propios e infinitos datos que la plataforma posee. En este sentido, la inteligencia artificial es capaz de identificar patrones que pueden revelar ideas y dar forma a las diferentes posibilidades creativas y estratégicas. De la misma manera, pueden automatizar las tareas a gran velocidad y escala, ahorrando tiempo y mejorando los resultados. Finalmente, pueden reunir conjuntos de datos para que abran tipos totalmente nuevos de expresión creativa. Las máquinas son socios que pueden ayudar a acelerar la creatividad y explorar sus posibilidades más profundamente que nunca (Jones, 2018), transformándose en aliadas indispensables para cualquier tarea que implique el trabajo con grandes volúmenes de datos. Referencias bibliográficas Amatriain, X. & Basilico, J. (2012). Netflix Recommendations: Beyond the 5 stars (Part 2). Recuperado de . Jones, B. (2018). Whyit’s time to shiftfrom a ‘human vs. machine’ to a ‘human plus machine’ mindset. Recuperado de . Madrigal, A. (2014). How Netflix reverse engineered Hollywood. The Atlantic. Recuperado de . McFarland, C., Pow, M. & Glick, J. (2018). Quasi Experimentation at Netflix. Recuperado de . Neira, E. (2018). Impacto del modelo Netflix en el consumo cultural en pantallas: Big data, suscripción y longtail. En Anuario AC/E 2018 de cultura digital. Recuperado de . Urban, S., Sreenivasan, R. & Kannan, V. (2016). It’sAll A/Bout Testing: The Netflix Experimentation Platform. Recuperado de .

– 249 –

Diseño de un asistente de voz para la apropiación de archivos culturales en un contexto transmedia. El caso de la colección León de Greiff en la sala patrimonial del Centro Cultural-Biblioteca Luis Echavarría Villegas1 sara melissa gallego quiroz y mauricio vásquez arias2, universidad eafit

Este artículo se ocupa de mostrar el desarrollo de un dispositivo de voz con inteligencia artificial que permite generar interactividad con los usuarios, dentro de una estrategia multiplataforma, para la apropiación del archivo del poeta colombiano León de Greiff. En este caso se diseñó una interfaz multimodal haciendo énfasis en la interacción a través de la voz, que integra análisis semántico con comandos sociales e interfaz de usuario multimodal, encarnando cuatro de las múltiples instancias autorales denominadas «otrosyoes», características de la obra greiffiana. La metodología de diseño empleada logró la combinación del desarrollo de software con aspectos de creación multimodales, a través de lo que, en el contexto de esta investigación, se denomina como poética de las bases de datos y, por otra parte, bases de datos poéticas. Esta mixtura es descrita mediante la sistematización de la experiencia de diseño. En conjunto, este dispositivo y los desarrollos teórico-metodológicos que se presentan a continuación hacen parte del proyecto transmedia denominado La Fanfarria Farragosa, bajo la perspectiva de diseño transmedia para experiencias de apropiación de archivos culturales.

1

2

El presente artículo es resultado del proyecto de investigación «Diseño transmedia para experiencias de apropiación de archivos culturales» (código 828 – 000049), financiado por la Dirección de Investigación de la Universidad Eafit, Medellín y es desarrollado en el marco del Doctorado en Diseño y Creación de la Universidad de Caldas, Manizales. Los autores quieren agradecer a los doctores Isidro Moreno, de la Universidad Complutense de Madrid, y Felipe César Londoño, de la Universidad de Caldas, por sus aportes la materialización del proyecto y sus contribuciones críticas en la escritura del presente artículo.

– 251 –

Introducción Este trabajo nace de la sistematización del proceso de desarrollo de un asistente de voz con inteligencia artificial que busca materializar en un dispositivo tecnológico la creación de instancias autorales denominadas «otros-yóes», en el contexto de la obra del poeta colombiano León de Greiff.

figura 1: interfaz gráfica de usuario para el asistente de voz. diseño: carolina peláez, catalina rocha, mariana duquem, paula andrea galvis y rafael esteban mejía.

Este dispositivo, diseñado para operar dentro del proyecto transmedial La Fanfarria Farragosa, pretende ofrecer un mecanismo de interactividad para los participantes en el contexto de una experiencia espacial, con las alosubjetividades (Schaeffer, 2002) creadas en la obra poética de León de Greiff, cuyo propósito es favorecer prácticas de apropiación en jóvenes de 15 a 23 años, del archivo de León de Greiff, alojado en la sala patrimonial del Centro Cultural-Biblioteca Luis Echavarría Villegas en la Universidad Eafit en Medellín, Colombia, combinando aspectos – 252 –

biográficos y artísticos, a través de tecnologías analógicas y digitales. Por alosubjetividades u otros-yoes, como los designa de Greiff (1986: 10), se entienden aquellas instancias poéticas de desdoblamiento de la identidad autoral en múltiples personalidades literarias, que hacen presencia en la obra greiffiana, aludiendo a ellas, dándoles voz en la práctica poética y multiplicándolas en diversos juegos metalépticos (Genette, 2004), pero sin alterar el estilo de escritura (Macías, 2015), como sí es el caso de los heterónimos de autores como Fernando Pessoa (Pessoa y Pizarro, 2012). El dispositivo multimodal es un asistente de voz con inteligencia artificial, que integra comandos sociales gracias a una interfaz gráfica de usuario (ver Figura 1) que permitirá su fácil programación, uso y adaptación futura en otros proyectos, diferenciándose de asistentes comerciales como Cortana, Siri y Alexa, en tanto se soporta, en buena parte, en código abierto y es independiente de cualquier ecosistema de servicios comerciales. Este dispositivo procura facilitar conversaciones con algunas de las múltiples personalidades greiffianas, por medio de la recuperación y procesamiento de información sobre las mismas en la obra poética del autor en mención, a través de un diseño de interacción intuitivo y lo más natural posible. Los asistentes de voz apoyados en machine learning como estrategia de apropiación mediante la interactividad con bases de datos poéticas La delegación de la voz humana a entes artificiales es un asunto que ya prefiguraba a finales del siglo XIX en la literatura decadentista. Bajo la denominación de La máquina parlante, Marcel Schwob (2015) designaba un artefacto monstruoso con la capacidad de reproducir la voz humana a través de un complejo sistema mecánico y neumático. Más allá de las figuraciones literarias, el desarrollo de patentes de asistentes de voz liderado por Apple y Microsoft (Google Patents, 2018), así como el auge reciente de los asistentes de voz incorporados en dispositivos móviles (Siri, Cortana, Alexa, Google Now) o en gadgets independientes (Apple Homepod, Amazon Echo, Google Home) han popularizado los desarrollos de un campo de investigación interdisciplinario, caracterizado por la integración de la lingüística, la psicología, el diseño de interacciones, la domótica, el diseño de interfaces multimodales, entre otros campos disciplinarios que apoyan – 253 –

la interactividad mediada por lenguaje natural y las tecnologías de reconocimiento de voz (Pérez-Marín, 2011, xv). El asistente de voz basado en IA del que se ocupa este trabajo se elaboró como un componente nodal dentro de la exposición interactiva planificada en el marco de la estrategia transmedia que integra un juego en línea hipermedia, un sitio web, una estrategia de redes sociales y una producción musical. Este dispositivo permite lograr interactividad con el público, dado que es una interfaz que reviste características de comunicación multidireccional. El asistente pretende encarnar los alter egos o heterónimos del poeta León de Greiff y, por su relevancia en el trabajo del autor, se debía darle fuerza a este componente dentro de la estrategia. Por ello se planteó desarrollar una interfaz multimodal (Oviat et. al., 2017) que facilite la realización de procesos a través de métodos de interacción como la manipulación directa y el habla (Flippo, Krebs y Marsic, 2003: 109). En cuanto a la arquitectura del agente, se buscó integrar la programación y el diseño de la interfaz gráfica de usuario con la propuesta conceptual articuladora de la estrategia transmedia, haciendo una variación a la idea de bases de datos narrativas elaborada por Marsha Kinder, quien indica: Las bases de datos narrativas se refieren a aquellos aspectos presentes bien sea en novelas, películas, juegos u otras formas de contar historias, cuya estructura expone los procesos duales de selección y combinación que se encuentran en el corazón de todos los relatos y que son cruciales para el lenguaje: la selección de una serie de paradigmas para la creación de personajes particulares, imágenes, sonidos y eventos, que luego se combinan para generar relatos específicos. Al plantear cuestiones relacionadas con la meta-narrativa, tales estructuras revelan la arbitrariedad de las elecciones particulares hechas y la posibilidad de hacer otras combinaciones, lo que crearía historias alternativas (traducción de los autores; Kinder, 2003: 349).

Esta idea tematizada en diversos trabajos para dar cuenta de las potencialidades creativas de las bases de datos (Booth, 2009: 373; Moreno-Sánchez, 2011; Colorado-Castellary y Moreno-Sánchez, 2017) deja ver la persistencia de las propiedades tanto ergódicas (Aarseth, 2004) como combinatorias de la creación digital interactiva (Handler, 2014) en las que, a partir de matrices rizomáticas (Deleuze y Guattari, 2008), los creadores y los usuarios tienen la posibilidad – 254 –

de desarrollar múltiples tramas o escogerlas como recorrido en el proceso de navegación, al tiempo que alude a las trabas o constricciones que exploraron tempranamente las prácticas de literatura potencial oulipiana (Salceda, 2016), pero que ahora es materializada a través de sistemas hipermediales y bases de datos que favorecen las actividades de recuperación, aleatorización, combinación y remezcla en creaciones y lecturas multilineales. Sobre este particular, Kinder sugiere: Si bien una base de datos narrativa puede no tener un inicio o final claro, ni una estructura clásica de tres actos o incluso una cadena de causalidad coherente, todavía presenta un campo narrativo con elementos de la historia que despiertan la curiosidad y el deseo de un usuario, impulsos que se pueden movilizar como un motor de búsqueda para recuperar lo que sea necesario para contar una historia en particular. Al llamar la atención sobre la infraestructura de la base de datos de todas las narrativas, estos trabajos revelan la arbitrariedad de las elecciones realizadas y, por lo tanto, desafían la noción de narraciones maestras cuyas selecciones tradicionalmente se hacen para que parezcan naturales o inevitables (traducción de los autores; 2003: 349).

Para el caso específico del diseño conceptual del asistente de voz, se procedió a hacer una variación sobre la idea de bases de datos narrativas para hablar, en un doble registro, de bases de datos poéticas y poéticas de las bases de datos. Vista así, la lectura y recuperación de aspectos relevantes del trabajo escritural de León de Greiff, ofrecieron claves interpretativas que resultaron interesantes para proponer algunas maneras de hacer más amable el acercamiento a su obra. Se configuraron, en primera instancia, y en la lógica de la base de datos poética, guías conversacionales para la interacción con usuarios; y en segundo lugar, se inició una exploración de las posibilidades de integración del programa, espacio y recorrido, en una propuesta instalativa coherente con los propósitos del proyecto transmedia y atendiendo las particularidades del público. Todo esto indagando sobre las propiedades y prácticas necesarias para lograr una interacción más natural basada en modelos de conversación humana (Cassell et al., 2000: 60). De esta manera, se pudo emular el intercambio uno a uno entre usuario y heterónimo del escritor. Este proceso implicó la integración de componentes creativos considerando tres horizontes: el de programación, el de diseño y el de los usuarios. – 255 –

Presentamos a continuación un diagrama que sintetiza el flujo de trabajo propuesto para tal efecto:

figura 2. flujo de trabajo e integración de procesos de programación, diseño y experiencia de usuarios. fiente: elaboración propia.

– 256 –

En este caso se elaboró un programa para generar una conversación persona-máquina simple y corta, con entradas de texto predeterminadas que distan de los modelos estadísticos, neuronales y de conversación larga que referencia en su trabajo Bhattacharya (2017). El asistente tiene acceso a sólo una entrada (audio), con el objetivo de mantener el diseño simple y no complejizar el desarrollo. Asimismo, este aspecto facilitará, ulteriormente, la programación y la reutilización del software para otros propósitos, a través de un modelo sencillo de ingreso de preguntas y respuestas. Ahora bien, ya en el plano interactivo, la resolución de procesos sí permite que a través de estos comandos simples, el asistente genere varias salidas como la reproducción de audio, imágenes, videos e, incluso, abrir una ruta de carpetas o el navegador web. Se presenta a continuación un diagrama de flujo que permite visualizar mejor el funcionamiento del asistente:

– 257 –

figura 3. diagrama de flujo del asistente de voz. fuente: brief del proyecto de programación. cristian bejarano, 2018.

– 258 –

Tal como puede apreciarse en el diagrama, para efectos de la organización de la base de datos se usaron cuatro categorías: •

Comandos sociales: permiten agregar los comandos y líneas conversacionales que se usan para interactuar con el asistente.



Comando carpetas: en esta opción los comandos sirven para que el asistente abra carpetas, especificando la ruta de este último.



Comando aplicaciones: da la posibilidad de abrir herramientas específicas dentro del computador.



Comando web: en esta configuración se pueden ingresar enlaces a cualquier sitio web y el asistente abrirá la página

Para el desarrollo del asistente se apeló a principios de machine learning, para afinar habilidades de reconocimiento y velocidad, de tal modo que al tener más personas interactuando con el asistente, más fluidas se vuelven las respuestas; esto como una manera de entrenar al asistente de voz a través de un bucle de retroalimentación. Conclusiones En términos generales, el desarrollo de este asistente supone la concreción de un componente multimodal para dinamizar aspectos literarios y favorecer, de manera creativa, la encarnación de instancias autorales, que deriva en una oportunidad de aproximación a las particularidades de una obra como la de León de Greiff, en el conjunto de una experiencia inter y transmedial. El proceso de diseño de un asistente de voz en el marco de una estrategia transmedia para la apropiación de archivos culturales, dirigida a jóvenes entre los 15 y 23 años, permite crear un acercamiento dinámico a la colección y, particularmente, a aspectos de la obra de uno de los escritores y poetas más complejos de la literatura colombiana. La particular integración de aspectos de programación, diseño y experiencia de usuario admite incorporar el asistente con inteligencia artificial en el marco del proyecto general, para permitir al usuario interactuar con alguno de los «otros-yoes», figurados a través del uso de bases de datos poéticas y de la exploración de la poética de las bases de datos. – 259 –

Este ejercicio de diseño se presenta como una posibilidad de animación a la lectura y apropiación que sugiere la experimentación con elementos relevantes y atractivos de una obra literaria, por medio de la combinación y selección de rasgos singulares, para que combinando las estructuras de los textos, tratados como datos, y definiendo interfaces amigables se generen sensaciones y experiencias significativas. Referencias bibliográficas Aarseth, E. (2004). La literatura ergódica. En Sánchez-Mesa, D. [et al.], Literatura y cibercultura. Madrid: Arco Libros. Afshin, A., Butan, A, Baran, C. & Asplund, L. (2011). A general Framework for incremental processing of Multimodal Inputs. En Proceedings of the 13th international conference on multimodal interfaces, pp. 225-228. ACM. Bengio, S. & Bourlard, H. (2004). Machine Learning for Multimodal Interaction. Berlin: Springer. Bhattacharya, A. (2017). Generative Conversational Agents-The State-of-the-Art and the Future of Intelligent Conversational Systems. International Journal on Recent and Innovation Trends in Computing and Communication, 5 (5), 817-821. Booth, P. (2009). Narractivity and the narrative database: Media-based wikis as interactive fan fiction. Narrative Inquiry, 19 (2), 372-392. Cassell, J., Bickmore, T., Campbell, L., Vilhjálmsson, H. & Yan, H. (2000). Human conversation as a system framework: Designing embodied conversational agents. En Cassell, J., Sullivan, J., Churchill, E. & Prevost, S. (Eds.). Embodied conversational agents. MIT press. Colorado-Castellary, A. & Moreno-Sánchez, I. (2017). Patrimonio artístico durante la Guerra civil y la posguerra: investigación, catalogación y gestión digital del arte salvado. El profesional de la información (EPI), 26 (3), 533-541. Deleuze, G. (2000) & Guatari, F. (1980). Introducción: Rizoma. En Mil mesetas. Valencia: Pre-textos. Flippo, F., Krebs, A. & Marsic, I. (2003). A framework for rapid development of multimodal interfaces. En Proceedings of the 5th international conference on Multimodal interfaces, pp. 109-116. ACM. Genette, G. (2006). Metalepsis: de la figura a la ficción. México: Fondo de Cultura Económica. Google Patents (2018). Reporte de porcentajes de patentes registradas para asistentes de voz. Consultado el 30 de octubre de 2018. Recuperado de . Handler, C. (2014). Digital storytelling: A creator’s guide to interactive entertainment. New York: Focal Press.

– 260 –

Kinder, M. (2016). Database Narrative. En Marsha Kinder Legacy. Consultado el 28 de octubre de 2018. Recuperado de . . (2003). Designing a database Cinema. En Shaw, J. & Weibel, P. Future cinema: the cinematic imaginary after film. MIT Press. Macías, L. F. (2015). El Gaspar de la noche de León de Greiff. Revista Universidad de Antioquia. Moreno-Sánchez, I. (2011). Cultura digital y sociedad. Relato AUDIO-visual. En García, F. & Rajas, M. (coords.). Narrativas audiovisuales: mediación y convergencia. Madrid: Ícono 14. Oviat, S., et. al. (2017). The Handbook of Multimodal-Multisensor Interfaces. Foundations, User Modeling, and Common Modality Combinations. ACM. Pérez-Marín, D. (Ed.) (2011). Conversational Agents and Natural Language Interaction: Techniques and Effective Practices. IGI Global. Pessoa, F. & Pizarro, J. (2012). Plural como el universo. Medellín: Tragaluz. Schaeffer, J. M. (2002). ¿Por qué la ficción? Madrid: Lengua de Trapo. Schwob, M. (2015). Cuentos completos. Madrid: Páginas de espuma.

– 261 –

Narrar y contar con imágenes en y con la red sebastián castro rojas, universidad nacional de rosario

En este capítulo nos hemos propuesto abordar las experiencias de los usuarios en el uso y apropiación de la imagen digital (fotografía) y las Stories en la plataforma/red social Instagram. En primer lugar nos interesa abordar cómo los jóvenes construyen identidad a partir de la publicación de imágenes fijas en la plataforma digital Instagram. En segundo lugar abordaremos la hibridez y mixtura de lenguajes que se presentan y habitan en las Stories en donde co-existen distintos textos propios de los lenguajes contemporáneos del ecosistema digital (imágenes fijas, videos, memes, textos escritos). Analizar y detenerse en el uso de estas formas de expresión y creación permite pensar a las Stories de Instagram como narrativas o instantáneas de los jóvenes. Entendemos que estas producciones amalgaman las formas de expresión de los jóvenes y evidencian la construcción de nuevas socialidades en el entorno digital. El enjambre digital conecta y vincula Las Stories de Instagram o «Instagram Stories» son historias que permanecen 24 horas publicadas en la web;, son las formas de crear y hacer en y con la red; son maneras de crear formatos instantáneos desde el lugar donde el sujeto está. Las Stories se replican en la web y en las redes sociales como una forma de experimentar el universo digital. Los jóvenes crean pequeñas historias con imágenes fijas o videos cortos que comparten, visibilizando sus experiencias. Las actuales formas de comunicación mediadas por dispositivos digitales táctiles, como las pantallas de celulares, IPod, notebooks, computadores personales o los Smart TV, exacerban la experiencia de los sujetos en el actual ecosistema de medios digitales. Seguimos

– 263 –

el planteo de Byung-Chul (2014), quien caracteriza a la sociedad digitalizada como un «enjambre digital» que consta de individuos que actúan de manera aislada (con perfiles propios) y que no desarrollan un nosotros. En este nuevo enjambre digital se producen experiencias mucho más inmersivas en donde el contacto con los textos digitales modifica el sentir, el hacer, el transitar, el habitar de los sujetos en la cotidianidad tanto física como digital. Instantaneidad, velocidad, circulación, formatos, lenguajes, textos y pantallas son algunas de las características que se hacen presentes al momento de experimentar el espacio digital. En el mundo virtual, con las nuevas aplicaciones, la vida personal e íntima se «espectaculariza», en términos de Debord (1967), y todo lo exhibido es interpretado por miles de usuarios, que, a su vez, también se constituyen como productores de sí mismos al crearse perfiles virtuales. Esta instantaneidad que se demanda y pregona modifica las formas de vinculación de los sujetos tanto entre pares como en el entorno laboral o educacional. Hace algunos años era impensado estar disponible y conectado a la web las 24 horas. Hoy es lo opuesto. Vivimos conectados, en un tiempo online constante. Estamos siendo moldeados por la conexión en red y a la red. Desarrollamos nuevas formas de estar con otros, de vincularnos, de conocernos, de socializarnos. Vivimos hoy una forma de «socialidad conectada» (Van Dijck, 2016). Por ello consideramos que las redes sociales, en particular las más conocidas o utilizadas (Facebook, Twitter, WhatsApp e Instagram), se han vuelto parte de nuestro mundo cotidiano. Experimentamos nuevos modos de construir la socialidad junto a las redes sociales que potencian y exacerban estas experiencias tanto de los usuarios jóvenes como adultos. «Los medios conectivos avanzan cada vez más sobre diversos factores de las conexiones humanas, codificándolas como datos y convirtiéndolas en mercancías que producen valor» (Van Dijck, 2016, p. 10). Estos medios conectivos llevaron a que nuestros hábitos, lenguajes y costumbres se tuvieran que adaptar a las nuevas modalidades, dando lugar a la creación de una cultura digital instantánea. Por ello nos preguntamos: ¿Cómo construyen los jóvenes su identidad en Instagram? ¿Existe una nueva forma de construcción discursiva híbrida en la web? ¿En las Stories co-existen nuevas narrativas como formas de expresión y creación instantánea de los jóvenes? – 264 –

Stories e identidad en la web El conectivismo es estar conectados con y a la web en todo momento. Los sujetos se mueven y trasladan en la red y con la red. Hoy en día las personas son fisgones del ambiente digital, ya que observan y se detienen en las Stories de los otros, experimentando a través de la pantalla las vivencias de otros sujetos. Estamos rodeados de pantallas y contenido. Habitamos un mundo digital donde los likes, tweets y los compartidos junto a los corazones se mezclan con los audios de voz y video que inundan los consumos digitales. Es la forma de experimentar y vivir de los jóvenes en el ecosistema digital. Al transitar las ciudades es cotidiano ver la mirada de los transeúntes, jóvenes y adultos dirigida hacia una pantalla. En todos los espacios físicos los cuerpos están presentes, pero la experiencia no es el ambiente que se comparte con otros sujetos, sino la pantalla delante de los ojos para compartir, a través de los dispositivos y las plataformas, el instante con otros mediante la conexión. Esta instantaneidad puede ocurrir en el colectivo, el subte, la plaza, el aula, el ascensor, el súper, la cola del cajero automático (ATM). Las personas se escuentran en permanente conexión en donde estén, ya que están en la web y con la web. El dispositivo móvil siempre está encendido para decir «estoy acá dispuesto a hablar, compartir o producir contenido digital». Si no es el celular, la computadora acompaña al sujeto tanto en el trabajo como en sus estudios. Si estamos en casa, el televisor es una opción extra que se enciende acompañando la experiencia multipantalla y funcionando, muchas veces, como música de fondo. Asistimos de manera perpleja a las innovaciones constantes y cómo los desarrolladores buscan dotar a los sujetos de experiencias cada vez más inmersivas en las pantallas, compartiendo la vivencia con otros. Se busca prolongar la conexión en el espacio digital en todo momento. Siguiendo los aportes de Van Dijck (2016), las redes sociales son formas de estar conectados y generan una nueva socialidad producto del uso y apropiación de los sujetos de las redes sociales o medios sociales conectivos. En esta línea, la mirada de Hall (2003) nos permite pensar cómo «las identidades nunca se unifican y están cada vez más fragmentadas y fracturadas; nunca son singulares, sino construidas de múltiples maneras a través de los discursos, prácticas

– 265 –

y posiciones diferentes, a menudo cruzadas y antagónicas» (2003. 17). Las redes sociales son el lugar donde los sujetos trabajan, se relacionan, viven y comparten. En el espacio digital la socialidad conectiva se experimenta continuamente, por lo que las personas contemporáneas se encuentran sumergidas en la vorágine de la conexión permanente. Las Stories de Instagram pueden ser analizadas desde esta mirada ya que se hacen, producen y comparten para ser consumidas en las 24 horas siguientes. Estas historias son producidas para un consumo instantáneo por parte de los jóvenes. Es en estos consumos fugaces donde se experimenta la nueva socialidad digital e instantánea. Al consumir las Stories los jóvenes se hacen masa, son una unidad, experimentan en el consumo efímero la socialidad conectada y establecen vínculos sociales mediante la apropiación de las imágenes. El hecho de mirar lo publicado por los otros pares genera vínculos y lazos sociales mediados por las pantallas y las interfaces del ecosistema digital. En estas narrativas co-existen y se potencian los lenguajes para aprovechar el formato para el aquí y ahora. Las historias duran solamente una jornada, o bien pueden ser destacadas y guardadas en el perfil de cada usuario. Por ende, aquellas situaciones que están sucediendo en el momento pueden ser publicadas sólo por un día, pues quizás mañana ya no tengan relevancia. Las Stories en Instagram amalgaman, mixturan las nuevas narrativas digitales. Este consumo fugaz evidencia las formas de ser de los sujetos con y en las interfaces tecnológicas. Esta socialización digital y conectada a través de las pantallas son las prácticas culturales de los jóvenes, donde los espacios virtuales brindan la posibilidad de construir una identidad que se representa y se narra. En estos breves relatos se conjugan, se presentan los intereses, los deseos, los valores de quien realiza el video, texto, emoji o una hibridez de textos. Estas experiencias ofrecen nuevos desafíos narrativos. Por ejemplo, en las Stories es posible escribir y editar texto, recortar o editar fotos, audios o vídeos. Estas aplicaciones de los dispositivos móviles son pantallas que permiten al sujeto llevar consigo la televisión, el cine, el álbum fotográfico, la música y hasta la computadora (Renó, 2015). En estas expresiones y contenidos audiovisuales se puede identificar una construcción narrativa que es aprovechada por las personas, en

– 266 –

especial los jóvenes. Son ellos quienes se apropian de modo natural de maneras y formas de comunicar con los dispositivos y los entornos digitales. Estos jóvenes pueden ser entendidos como los llamados new new citizen, según Levinson (2012). Estas formas de expresión y apropiación de los entornos por parte de los jóvenes evidencian una fascinación por producirlas, hacerlas, editarlas para que sean consumidas por otros. Este encanto por crear relatos breves es una marca significativa que va en aumento y una práctica cultural a modo de flashes e instantáneas que los jóvenes experimentan en el enjambre digital. La instantaneidad es una característica clave de la era digital. Al estar en conexión se accede de manera instantánea a lo que se busca o quiere. Es por esto que la transmisión de contenidos digitales (fotos, textos, video, audio) es un círculo que nunca se rompe. Se hace, se escribe, se etiqueta, se publica, se comparte en el espacio digital, dejando huella de dónde estoy, qué hago. Las nuevas socialidades conectivas e identidades se materializan en breves relatos (Stories) que los jóvenes suben y comparten. Esta forma de consumir y transitar la web construye nuevos sujetos, nuevas subjetividades en los habitantes y productores de narrativas digitales. Estos usos y apropiaciones de las plataformas por parte de los jóvenes representan la emergencia de narrativas digitales que aglutinan maneras distintivas de vivir hoy en el ecosistema de medios. Experimentar los entornos digitales permite a los sujetos aprovechar las plataformas, las aplicaciones para expresarse mediante sus redes y expandir sus mundos narrativos. Las «Instagram Stories» evidencian y muestran los modos de vincularse y ensayar en la web. Los jóvenes cuentan y narran su cotidianeidad en las redes. Las Stories son las formas de experimentar y vivir en y con la web. Estas narrativas digitales de 24 horas de duración son instantáneas de los momentos que se quieren mostrar a los otros. Crear y compartir es la forma de relacionarse con otros. Estas formas narrativas de lo digital se expanden como virus hacia ámbitos de la sociedad contemporánea como el entretenimiento, el trabajo y la educación. La reducción de palabras en las noticias, así como la estrategia de presentación de la información con gráficos

– 267 –

e infografías son pequeñas muestras de cómo lo instantáneo va ganando la batalla. Las «Instagram Stories» breves y efímeras, con 24 horas de vida, son creadas para ser compartidas y expandibles por las redes sociales. El desafío hoy es tanto para las empresas de medios como para las instituciones educativas y los educadores, pero también para los órganos de gobierno y los gobernantes, obligadas a generar textos y narrativas que sean atractivas para las audiencias contemporáneas. Actualemnete, la generación de contenido debe ser apta para los medios digitales, para que sea capaz de captar el interés de estas nuevas audiencias. Las narrativas hoy son instantáneas, fugaces y propagables para expandirse en la cultura digital. Referencias bibliográficas Byung-chul, H. (2014). En el enjambre. Buenos Aires: Herder. Debord, G. (1967). La sociedad del espectáculo. Valencia: Gallimard. Hall, S. (2003). Introducción: ¿Quién necesita identidad? En S. Hall & P. du Gay (comps.), Cuestiones de identidad cultural. Buenos Aires: Amorrortu. Jenkins, H. (2008). Convergence culture. La cultura de la convergencia de los medios de comunicación. Barcelona: Paidós. Reno, D. (2015). Movilidad y producción audiovisual: cambios en la nueva ecología de los medios. En C. Scolari, Ecología de los medios. Entornos, evoluciones e interpretaciones, pp. 247-262. Barcelona: Gedisa.

– 268 –

La mediación del algoritmo en las narrativas interactivas jorge vázquez-herrero, universidad de santiago de compostela

La inteligencia artificial amplía su desarrollo en el área de la comunicación afectando la forma de contar las historias. Los recursos tecnológicos plantean una oportunidad para mejorar la representación de la realidad y, al mismo tiempo, una dificultad para acceder a ellos, comprenderlos y sentirlos reales. El progreso tecnológico de las últimas décadas permite al usuario tener hoy una visión más crítica sobre la mediación del algoritmo en los procesos cotidianos. En las narrativas interactivas se exploran aplicaciones pioneras y se abren nuevas vías para aproximarse a la realidad a través de la inteligencia artificial. Introducción La evolución de los sistemas y de las redes inteligentes ha dispuesto una serie de cambios en el ámbito de la comunicación que al día de hoy son percibidos y experimentados por los usuarios. El debate sobre cuestiones como la privacidad, la distribución de noticias, la proliferación de contenidos falsos o la ciberdelincuencia facilitaron la sensibilización y la familiarización con un entorno cargado de tecnicismos y alejado, en un inicio, del ciudadano. Actualmente, los usuarios adultos viven momentos clave de la historia que les permiten entender y crear una opinión propia. Nos referimos a la emergencia de las redes P2P y los servicios de descarga de contenidos online, las demandas contra las grandes compañías tecnológicas por abuso de poder o desprotección al usuario, la manipulación o la falsa transparencia en el contexto del Big Data y el Open Data, la intensa circulación y actividad falsa en redes sociales, etc.

– 269 –

Las transformaciones son notorias desde que en 1991 se presentó públicamente la World Wide Web y su sentido original ha ido mutando, mientras se intentan construir muros en detrimento de la neutralidad de la red. No obstante, detrás del navegador se extienden sistemas opacos y semitransparentes desde el punto de vista de los usuarios, pero nunca inocuos. En la actual sociedad del conocimiento destaca el acceso a la información como promesa global y, más allá de las amenazas tecnológicas, también se abren ventanas de renovación y experimentación. Antecedentes y evolución Para sentar las bases de lo que hoy conocemos como inteligencia artificial y automatización, es necesario regresar varias décadas. Alan Turing, reconocido por su trabajo para descifrar la máquina Enigma empleada por los nazis, planteó lo que se conoce como el test de Turing (1950), la prueba que determinaría la inteligencia de un computador si las respuestas que aporta no se pueden diferenciar de las provistas por un humano. Junto a Norbert Wiener, autor de la teoría de la cibernética (Wiener, 1950), son los principales pioneros de la automatización inteligente. Posteriormente realizan sus investigaciones en esta área científicos como Joseph Weizenbaum (1966), creador del programa Eliza de procesamiento del lenguaje natural que superó el test de Turing, y Raymond Kurzweil, quien desarrolló el concepto de máquina inteligente (1990) con la predicción de que habría una inteligencia superior a la humana y la combinación de ambas supondría una nueva era, basándose en un avance exponencial de la tecnología. Una de las ideas centrales de la cibernética de Wiener (1950) es la definición de un universo con entropía, donde aparece la información como factor reductor de la incertidumbre; de esta forma, los medios de comunicación son vigilantes que contribuyen al orden democrático. Por otra parte, Wiener define la retroalimentación como el retorno de un circuito, que en la teoría de la comunicación equivale a un ciclo complejo donde los procesos producen consecuencias y no son meramente lineales y unidireccionales. Es visible, por tanto, la relación entre el avance de la inteligencia artificial y su impacto en la comunicación, aunque sea en el presente

– 270 –

donde encontremos manifestaciones más evidentes de su influencia. Una de las áreas donde esta relación se ha hecho más patente en las últimas décadas es en la realidad virtual, desde que el pionero Jaron Lanier la catalogara como promesa de futuro (Lanier, 1992). No obstante, la automatización ha sido objeto de estudio reciente en el periodismo: el reportero robot (Carlson, 2015), la percepción del contenido generado por algoritmos (Clerwall, 2014; Van der Kaa y Krahmer, 2014), la narrativa automatizada de eventos (Caswell y Dörr, 2018), el debate de la autoría (Montal y Reich, 2017) y el uso de chatbots en los medios (Sánchez y Sánchez, 2017; Herrero-Diz y Varona-Aramburu, 2018). Al ecosistema de medios se incorporan nuevas especies nacidas en el contexto de la inteligencia artificial, hasta el punto de ser parte de nuestras vidas, de la misma manera que Internet es el medio de comunicación y de socialización en la «sociedad red» (Castells, 2001). La automatización trae nuevas promesas positivas: «La inteligencia artificial permitirá mayor eficiencia en los procesos, y en la mano de los profesionales de la infomediación está convertir la hiperabundancia de mensajes, datos y ruido en comunicación útil, información de calidad y conocimiento» (López-García, 2018). Sin embargo, frente a la utopía surge también el escepticismo tecnológico. Desarrollo actual de la IA La inteligencia artificial y su aplicación a diversas áreas ha permitido que las máquinas asuman capacidades cognitivas propias de los seres vivos –y en ocasiones superiores y más eficientes–. La implementación de sistemas inteligentes en distintos puntos del proceso comunicativo transforma la producción de contenidos, así como su distribución y consumo. Por una parte, quizá la más avanzada y detectable para el usuario, los buscadores y agregadores manejan complejos algoritmos para localizar, clasificar, archivar y acceder a millones de páginas web. En esa capacidad característica, así como en otras que desarrollaremos a continuación, juega un papel determinante el machine learning, dando lugar al contenido predictivo y a las recomendaciones al usuario. Otra de las habilidades, relacionada con la capacidad de análisis y clasificación del contenido, es el filtrado para reducir el ruido en un

– 271 –

entorno de sobreinformación, así como el procesamiento natural del lenguaje, un puente comunicativo con los humanos. Desde la perspectiva de los dispositivos, la tecnología es cada vez más accesible e incorpora la automatización y la inteligencia artificial en móviles, cámaras, videoconsolas y ordenadores. La multiplicidad de sensores que nos lleva a un entorno conectado –Internet of Things– se encuentra también en los aparatos más populares. Incluso ha sido distinguido el papel de la inteligencia artificial en nuestra cultura y, específicamente, en la cultura de la imagen (Manovich, 2018) a través de los contenidos visuales recomendados o la capacidad de los dispositivos para crear automáticamente recuerdos y generar historias desde las galerías de fotografía y video. En un nivel superior de sofisticación se sitúan los asistentes personales como Siri, Cortana, Alexa o Google Assistant, máquinas dispuestas a entenderse con los usuarios y facilitar tareas. El avance de los sistemas inteligentes en los dispositivos afecta directamente el modo de consumo; la robótica y la computación median ya en numerosos procesos de nuestro día a día. En lo referente al usuario, su comportamiento está permanentemente monitorizado y evaluado. Las analíticas, hasta el momento sin estándar, reflejan con precisión numérica las preferencias y favorecen la personalización del contenido. A diferencia de los sistemas de medición muestrales, las métricas en sistemas digitales monitorizan todas las acciones realizadas con exhaustividad; el usuario deja rastro constantemente de sus comportamientos y eso permite afinar los resultados de acuerdo con su perfil. Las redes sociales, las aplicaciones de mensajería y en general el software juegan un papel determinante en los nuevos procesos. La popularización de las redes sociales digitales y la actualización permanente de sus funcionalidades nos ha llevado al uso de filtros, máscaras, emoticonos y gifs, etiquetas temáticas y geoetiquetas. El contenido del usuario se encuentra hiperconectado con una infinidad de elementos. Al tiempo que el usuario siente la libertad de autocomunicación, el sistema se alimenta de su identidad digital. La transformación de los canales va ligada a los formatos, afectando en ambos casos a la producción y distribución de contenido. En el área de la comunicación digital y el periodismo, la revolución de

– 272 –

la inteligencia artificial despega progresivamente. Los medios y las agencias incorporan la automatización para la elaboración de artículos estructurados, especialmente en economía y deporte; es el caso del robot empleado por The Washington Post en la cobertura de los Juegos Olímpicos de Río de Janeiro en 2016. Además, se utilizan para la localización y la verificación de información en tiempo real, como hace Reuters News Tracer en Twitter para filtrar falsos, procesar y visualizar datos. El chatbot, o conversación automatizada, está siendo implementado por los medios para gestionar la comunicación con los lectores y también como canal alternativo para la distribución de noticias. Así empezó The Guardian a través de Facebook Messenger y de esta forma ofrece sus contenidos Quartz en su aplicación móvil. La creación de contenido personalizado, ajustado al perfil del usuario y ofrecido mediante canales interactivos, conduce a la individualización del consumo y la apertura de nuevas formas de participación que redefinen el papel del –antes llamado– lector. Aplicación en las narrativas interactivas La implementación de los recursos propios de la inteligencia artificial al servicio del relato permite interesantes avances, cada vez más frecuentes en la producción cultural interactiva. En la representación de la realidad, la inteligencia artificial aparece en obras de documental interactivo para ofrecer experiencias personalizadas, interactivas, participativas y co-creativas. Es el caso de Digital Me o Do Not Track, donde el relato va vinculado a la identidad digital; la conexión del navegador con las redes sociales facilita esta personalización y aproxima al usuario a la problemática que expone. Diversos ejemplos de docugame, como Hacked o MonteLab, emplean elementos propios del juego en el contexto de un documental periodístico y conceden al usuario un rol y una misión a desarrollar. En lo referente a la contribución, en forma de participación o co-creación, la tecnología ha facilitado iniciativas como Quipu Project, al servicio del cambio social y con un componente de interacción humana muy elevado. Los medios de comunicación han apostado en los últimos años, con cautela, por formatos interactivos como el documental. En estos espacios se generan importantes experimentaciones, debido a la

– 273 –

libertad creativa y el mayor presupuesto disponible. Cabe considerar que son proyectos complejos que requieren exigentes recursos económicos, técnicos y humanos. En las tecnologías inmersivas ha habido un interés más frecuente, acompañado del desarrollo de dispositivos de captura y visionado más accesibles. La emergencia de productos de realidad virtual, realidad aumentada y realidad mixta no queda al margen de la evolución de los sistemas inteligentes, que ofrecen una experiencia de inmersión e ilusión de presencia mejorada. Medios de comunicación y productoras han publicado trabajos basados en videos de 360 grados –The New York Times, Euronews–, así como en entornos virtuales –6x9, In Limbo– y visualización virtual sobre espacios reales –The Washington Post–. La influencia del algoritmo va más allá de estas aplicaciones en las narrativas de no ficción, incluyendo asistentes virtuales que ofrecen relatos personalizados –Karen de Blast Theory–, videoclips interactivos basados en geolocalización –The Wilderness Downtown–, películas interactivas que se generan en tiempo real –Rome– e instalaciones de museo que reaccionan a las preguntas de los visitantes –New Dimensions in Testimony–. Conclusión La mediación del algoritmo parece ser inseparable de los procesos de comunicación digital. El rol del ser humano se ve superado por la eficacia de los sistemas computacionales en los ámbitos de mayor objetividad y carácter cuantitativo. No obstante, esta situación presenta riesgos y oportunidades que se deben considerar críticamente: ¿En qué grado experimentamos como real o artificial la realidad representada? La brecha digital se verá afectada por los algoritmos y acrecentada por la segmentación y la desigualdad en el acceso a dispositivos e infraestructuras. Por otro lado, los algoritmos no se pueden definir como neutrales, dado su origen humano y su función programada. El hecho de que la máquina pueda tener un sesgo propio tras experimentar un aprendizaje, pudiendo este basarse en un patrón predefinido, tiene serias consecuencias sobre el ecosistema mediático tal como lo conocemos. De hecho, elementos culturales propios pueden ser desplazados por otros ajenos que son incorporados por las plataformas

– 274 –

populares en cada momento. Igualmente, la personalización de contenido puede derivar en una visión homogénea del mundo a modo de burbuja. Paralelamente, la inteligencia artificial puede tender puentes beneficiosos para la representación de la realidad. Una condición clave debe ser la transparencia, que debe permitir evaluar la actividad automatizada: etiquetar los contenidos de producción robótica, justificar el uso de sistemas inteligentes para la personalización, permitir la configuración de los recursos automatizados, etc. En la actualidad ya se aplica la automatización para la verificación, el filtrado y la comunicación individualizada en los medios. En la construcción del relato, el algoritmo todavía tiene margen de expansión. Se identifican muestras de un uso conveniente, que mejora la experiencia del usuario, representa escenarios y sucesos complejos o libera al creador de las tareas más mecánicas. Incluso en la narrativa transmedia cabe esperar un impulso hacia la articulación de plataformas y la ubicuidad del contenido. El realismo es uno de los grandes desafíos para la narrativa que participa en los sistemas de automatización. La invisibilidad de la mediación del algoritmo y el salto cualitativo y emocional se constatan como siguientes pasos a producirse. Al mismo tiempo, los cambios requerirán un posicionamiento crítico de los usuarios y un compromiso ético y sostenible para afrontar un nuevo escenario de brecha digital. Referencias bibliográficas Campos-Domínguez, E. & García-Orosa, B. (2018). Comunicación algorítmica en los partidos políticos: automatización de producción y circulación de mensajes. El Profesional de La Información, 27 (4), 769-777. Doi:10.3145/epi.2018.jul.06. Carlson, M. (2015). The Robotic Reporter. Digital Journalism, 3 (3), 416-431. Doi:10 .1080/21670811.2014.976412 Castells, M. (2001). La Galaxia Internet. Barcelona: Plaza & Janés. Caswell, D. & Dörr, K. (2018). Automated Journalism 2.0: Event-driven narratives. Journalism Practice, 12 (4), 477-496. Doi:10.1080/17512786.2017.1320773. Clerwall, C. (2014). Enter the Robot Journalist. Journalism Practice, 8 (5), 519-531. Doi:10.1080/17512786.2014.883116.

– 275 –

Herrero-Diz, P. & Varona-Aramburu, D. (2018). Uso de chatbots para automatizar la información en los medios españoles. El Profesional de La Información, 27 (4), 742-749. Doi:10.3145/epi.2018.jul.03. Kurzweil, R. (1990). The age of intelligent machines. MIT Press. Lanier, J. (1992). Virtual Reality: The Promise of the Future. Interactive Learning International, 8 (4), 275-279. López-García, X. (2018). Panorama y desafíos de la mediación comunicativa en el escenario de la denominada automatización inteligente. El Profesional de La Información, 27 (4), 725-731. Doi:10.3145/epi.2018.jul.01. Manovich, L. (2017). Automating Aesthetics: Artificial Intelligence and Image Culture. Recuperado de . Montal, T. & Reich, Z. (2017). I, Robot. You, Journalist. Who is the Author? Digital Journalism, 5 (7), 829-849. Doi:10.1080/21670811.2016.1209083. Sánchez Gonzales, H. M. & Sánchez González, M. (2017). Los bots como servicio de noticias y de conectividad emocional con las audiencias. El caso de Politibot. Doxa Comunicación, 25, 63-84. Turing, A. (1950). Computing Machinery and Intelligence. Mind (Vol. 49). Van Der Kaa, H. & Krahmer, E. (2014). Journalist versus news consumer: The perceived credibility of machine written news. En Proceedings of the Computation+Journalism conference. New York. Weizenbaum, J. (1966). ELIZA, a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9 (1), 36-45. Doi:10.1145/365153.365168 . Wiener, N. (1989). The human use of human beings: cybernetics and society. London: Free Association.

– 276 –

Otros títulos relacionados

este libro ha sido posible por el trabajo de

comité editorial Silvia Aguilera, Michel Bonnefoy, Ramón Díaz Eterovic, Mario Garcés, Jorge Guzmán, Tomás Moulian, Naín Nómez, Julio Pinto, Santiago Santa Cruz, Paulo Slachevsky, María Emilia Tijoux, José Leandro Urbina, Ximena Valdés, Verónica Zondek secretaria editorial Marcela Vergara producción editorial Guillermo Bustamante proyectos Ignacio Aguilera diseño y diagramación editorial Leonardo Flores corrección de pruebas Raúl Cáceres comunidad de lectores Francisco Miranda ventas Elba Blamey, Olga Herrera, Ilva Calderón bodega Francisco Cerda, Paola Estévez, Hugo Jiménez, Juan Huenuman, Carlos Rodríguez, Henry Martínez librería lom Ernesto Córdova comercial gráfica lom Elizardo Aguilera, Eduardo Yáñez servicio al cliente Ingrid Rivas diseño y diagramación Luis Ugalde, Karla Morales, Marjorie Dotte producción imprenta Carlos Aguilera, Gabriel Muñoz secretaria imprenta Jasmín Alfaro preprensa Mariela Valdez impresión digital William Tobar impresión offset Rodrigo Véliz, Francisco Villaseca encuadernación Rosa Abarca, Andrés Rivera, Edith Zapata, Pedro Villagra, Romina Salamanca, Fernanda Acuña, Iván Peralta mensajería Cristóbal Ferrada mantención Jaime Arel administración Mirtha Ávila, César Delgado, María Paz Hernández.

l o m

e d i c i o n e s