Autor/a: Virginia Carcedo. Secretaria General y Directora de Transformación, Excelencia e Igualdad de Fundación ONCE. Vicepresidenta ejecutiva de Inserta Empleo e Inserta Innovación
Nº Breve: 08/2025

Introducción: El Tercer Sector Social de Euskadi (TSSE) en la encrucijada algorítmica

El Tercer Sector Social se encuentra en un punto de inflexión histórico, una encrucijada donde convergen su misión humanista y el avance inexorable de la tecnología. En Euskadi, una comunidad con un tejido social denso, una arraigada tradición de cooperativismo y una identidad propia, esta realidad adquiere una resonancia y una urgencia singulares. La Inteligencia Artificial (IA) ha desbordado los confines de los laboratorios de investigación y las corporaciones tecnológicas para convertirse en una fuerza omnipresente y transformadora. Está redefiniendo la interacción humana, la arquitectura de nuestros servicios esenciales y la propia concepción de las políticas sociales. Este análisis no se conformará con un mero inventario de las oportunidades y los desafíos que esta revolución algorítmica presenta; su propósito es proponer una visión más audaz y necesaria: cómo el TSSE puede y debe trascender el rol de mero adaptador para asumir un liderazgo proactivo en la construcción de una IA que no solo sea eficiente, sino que esté intrínsecamente diseñada para promover una “equidad radical”.

Este concepto de “equidad radical”[1] va más allá de la simple mitigación de daños o la corrección de errores. Implica un compromiso inquebrantable con el desmantelamiento consciente y activo de los sesgos algorítmicos, que no son sino el reflejo digital de nuestras desigualdades históricas. Significa edificar puentes robustos y sostenibles hacia una sociedad genuinamente inclusiva, donde la tecnología no sea un fin en sí mismo, sino un catalizador poderoso para la justicia social. En el contexto vasco, esto se traduce en diseñar sistemas que comprendan y respeten la diversidad de nuestra población, que integren el euskera no como un añadido, sino como un elemento central, y que respondan a las necesidades específicas de sus comarcas, desde las zonas urbanas más densas hasta los entornos rurales. Estamos ante la oportunidad histórica de modelar una IA que refleje los valores de solidaridad (elkartasuna), trabajo comunitario (auzolan) y cohesión social que caracterizan a Euskadi, convirtiendo al sector en un faro de innovación ética a nivel global.

1. Desbloqueando potenciales ocultos: la IA como catalizador de impacto profundo en Euskadi

La conversación sobre la IA en el Tercer Sector a menudo comienza y termina con la eficiencia operativa. Si bien la optimización de la gestión de recursos, la automatización de tareas administrativas o la mejora de las campañas de captación de fondos son beneficios tangibles y necesarios, limitar el potencial de la IA a estos aspectos sería una profunda miopía estratégica. La verdadera promesa de la IA reside en su capacidad para actuar como un amplificador exponencial de la misión social de las organizaciones, generando un impacto cualitativo y transformador en la vida de las personas a las que sirven.

De la eficiencia operativa a la amplificación de la misión

Imaginemos un futuro cercano y plausible en Euskadi. Las organizaciones que trabajan con personas mayores no solo utilizan un software para gestionar agendas, sino un sistema de IA que, analizando datos de movilidad, interacción social (previamente consentidos) y patrones de comunicación, puede predecir con alta probabilidad los riesgos de soledad no deseada o deterioro cognitivo incipiente.

Este futuro no es una especulación lejana; ya se está materializando. Un ejemplo tangible es la plataforma Care.ai, utilizada en residencias y centros de mayores en varios países. Este sistema no usa cámaras convencionales, sino sensores ópticos que procesan la información de forma anónima para proteger la privacidad.

Analizando patrones de movimiento y comportamiento, la IA puede:

  • Detectar un aumento del riesgo de caídas si una persona muestra inestabilidad.
  • Identificar signos de aislamiento social si los patrones de salida de la habitación o de interacción con otros residentes disminuyen drásticamente.
  • Alertar sobre posibles deterioros cognitivos si detecta cambios en las rutinas diarias, como deambulación nocturna o confusión en los horarios.

Al igual que en el futuro imaginado para Euskadi, esta tecnología permite al personal de cuidado pasar de un modelo reactivo (atender después de una caída) a uno proactivo y preventivo, activando apoyos personalizados mucho antes de que ocurra una crisis.

Esto permitiría pasar de un modelo reactivo a uno proactivo y preventivo. Más importante aún, la IA se convertiría en un motor para potenciar el modelo de atención comunitario arraigado en Euskadi. Lejos de proponer una solución puramente tecnológica e individualista, el sistema actuaría como un catalizador: al detectar un riesgo, movilizaría de forma coordinada a los distintos agentes implicados en la comunidad —desde los servicios sociales (nivel técnico) hasta las redes de voluntariado y apoyo vecinal (nivel ciudadano)—. De este modo, se activarían visitas o soportes personalizados mucho antes de que la situación se agrave, reforzando el enfoque participativo y de responsabilidad colectiva que define al modelo.

En el ámbito de la inclusión sociolaboral, las plataformas de IA podrían ir más allá de la simple correspondencia entre currículums y ofertas de empleo. Podrían analizar las competencias transversales de una persona en situación de desempleo de larga duración, identificar sus brechas de habilidades con respecto a los sectores emergentes en Euskadi (como los ubicados en el Parque Tecnológico de Bizkaia), y diseñar itinerarios formativos hiperpersonalizados y adaptativos. Estos sistemas podrían, además, identificar y señalar sesgos en los procesos de contratación de las empresas, promoviendo una inserción laboral más justa.

Fronteras de impacto: aplicaciones transformadoras en el contexto vasco

El potencial se ramifica en múltiples dominios críticos para el bienestar social en Euskadi:

  • Dependencia y Discapacidad: los sistemas de visión por computador y procesamiento de lenguaje natural (PLN) pueden crear entornos domésticos inteligentes que se adapten en tiempo real a las necesidades de personas con discapacidad. Pensemos en asistentes de voz que funcionen fluidamente tanto en castellano como en euskera, facilitando la autonomía y la comunicación. La IA puede potenciar exoesqueletos o sistemas de comunicación alternativa, ofreciendo grados de independencia antes inimaginables.
  • Salud mental y bienestar emocional: mediante el análisis anonimizado de patrones de lenguaje en foros online y redes sociales (con estrictas salvaguardas éticas), las organizaciones podrían identificar tendencias emergentes de malestar psicológico en jóvenes en áreas geográficas concretas. Esto permitiría diseñar campañas de sensibilización y desplegar recursos de apoyo de manera focalizada. Los chatbots terapéuticos, supervisados por profesionales, podrían ofrecer una primera línea de apoyo accesible, 24/7, para personas que aún no se atreven a dar el paso de acudir a una consulta presencial, sin dejar de lado la interacción con otros seres humanos.
  • Lucha contra la pobreza y la exclusión: los modelos predictivos pueden ayudar a las administraciones y a las ONGs a identificar focos de vulnerabilidad ocultos, que no siempre se corresponden con los indicadores socioeconómicos tradicionales. En lugar de esperar a que una familia solicite ayuda, la IA puede analizar patrones en datos agregados y anonimizados para anticipar el riesgo.

Por ejemplo:

  • Un sistema podría cruzar datos de consumo energético con datos meteorológicos. Si detecta que un hogar reduce drásticamente su consumo de calefacción durante una ola de frío, podría generar una alerta de posible pobreza energética.
  • De igual modo, una disminución en el uso del transporte público por parte de un adulto podría correlacionarse con la pérdida de empleo o con dificultades para buscarlo activamente, señalando un riesgo de aislamiento.
  • Otro indicador podría ser el absentismo escolar intermitente. Un patrón irregular de asistencia de un menor, cruzado con datos sobre la solicitud de becas de comedor, puede ser un signo temprano de inestabilidad o falta de recursos en el hogar.

Al combinar estas señales, que por sí solas no son concluyentes, la IA puede señalar una alta probabilidad de riesgo. Esto permitiría a los servicios sociales pasar de la ayuda de emergencia a la intervención preventiva, ofreciendo recursos (como el bono social energético, ayudas al transporte o apoyo familiar) antes de que la familia caiga en una situación de crisis severa.

  • Dinamización comunitaria y voluntariado: Las plataformas inteligentes podrían revolucionar la gestión del capital humano del sector. Un sistema de IA podría conectar a un voluntario en Donostia con habilidades en diseño gráfico con una pequeña asociación en un pueblo de Araba que necesita crear materiales de difusión, todo ello en función de la disponibilidad, intereses y la proximidad cultural. Esto crea ecosistemas de apoyo mucho más dinámicos, resilientes y eficientes, maximizando el impacto del capital social vasco.

La materialización de este potencial depende de un ingrediente fundamental: los datos. El Tercer Sector Social atesora una inmensa riqueza de datos cualitativos y cuantitativos sobre las realidades sociales más profundas. El desafío no es solo tecnológico, sino cultural: pasar de una gestión de datos para el reporte a una gestión de datos para el aprendizaje y la predicción, siempre bajo un paraguas ético que ponga la dignidad y la privacidad de las personas en el centro absoluto.

2. El espejo roto de los datos: confrontando los sesgos algorítmicos con honestidad radical

La promesa de la IA solo puede realizarse si abordamos con valentía y honestidad radical su lado más oscuro: los sesgos algorítmicos. Un algoritmo no es una entidad neutral u objetiva; es un producto de los datos con los que se entrena y de las decisiones de las personas que lo diseñan. Si los datos reflejan las desigualdades, prejuicios y discriminaciones de nuestra sociedad, la IA no solo los replicará, sino que puede llegar a amplificarlos a una escala y velocidad sin precedentes, otorgándoles una falsa pátina de objetividad científica. La verdadera innovación no está en crear el algoritmo más potente, sino en construir el más justo.

La arqueología de datos: exhumando prejuicios ocultos

El primer paso hacia la equidad algorítmica es una “arqueología de datos”[2] rigurosa. Esto implica una deconstrucción forense de las fuentes de información que alimentan nuestros modelos. Debemos preguntarnos, con espíritu crítico:

  • ¿Quién y para qué se recogieron estos datos? Un conjunto de datos sobre rendimiento académico puede reflejar no solo la capacidad del estudiante, sino también el sesgo socioeconómico del sistema educativo.
  • ¿Qué voces están ausentes? En Euskadi, ¿están igualmente representadas en nuestros datos las experiencias de las mujeres de entornos rurales, de la comunidad gitana, de los migrantes de primera generación o de las personas con dialectos específicos del euskera? La subrepresentación conduce a la invisibilidad digital y, consecuentemente, a la exclusión de los beneficios de la IA.
  • ¿Qué prejuicios históricos se esconden en la data? Un sistema que predice el riesgo de reincidencia delictiva entrenado con datos históricos perpetuará las prácticas de perfilado racial o socioeconómico del pasado. Un modelo de concesión de microcréditos para emprendedores sociales podría discriminar a proyectos liderados por mujeres si se basa en datos históricos de un sector financiero androcéntrico.

Enfrentar esta realidad no es una tarea cómoda, pues nos obliga a confrontar nuestras propias fallas como sociedad. Pero es una condición indispensable para no construir un futuro digital sobre cimientos podridos.

Hacia un diseño antidiscriminatorio: algoritmos éticos por diseño

La respuesta a los sesgos no es aspirar a una quimérica “neutralidad”. La neutralidad, en un contexto de desigualdad, favorece al statu quo. El objetivo debe ser el diseño de “algoritmos éticos por diseño” (ethics by design), un enfoque proactivo que integra la equidad como un parámetro central desde la primera línea de código.

Esto significa:

  • Definir la “Justicia” (Fairness): No existe una única definición matemática de justicia. ¿Buscamos igualdad de resultados entre diferentes grupos demográficos? ¿O igualdad de oportunidades? ¿O quizás buscamos un modelo que compense activamente las desventajas históricas? Esta es una decisión sociopolítica, no meramente técnica, que debe ser tomada de forma transparente y participativa.
  • Técnicas de mitigación de sesgos: Los científicos de datos disponen de un arsenal de técnicas (pre-procesamiento de datos, reponderación de muestras, algoritmos adversarios, post-procesamiento de resultados) para combatir los sesgos. La elección de la técnica adecuada depende del contexto y de la definición de justicia acordada.
  • Transparencia y explicabilidad (XAI): Debemos movernos de los modelos de “caja negra” a modelos “explicables”. Un trabajador social o un beneficiario de un servicio tienen derecho a entender por qué un algoritmo ha tomado una determinada decisión (por ejemplo, denegar una ayuda). La explicabilidad es la base de la rendición de cuentas y de la confianza.

La auditoría social de la IA: un imperativo de gobernanza

Para garantizar que estos principios no se queden en el papel, es crucial institucionalizar la “auditoría social de la IA”. Esto implica la creación de equipos o comités de ética multidisciplinares dentro del propio TSSE, o en colaboración con universidades e instituciones. Estos equipos, compuestos por tecnólogos, sociólogos, juristas, filósofos y representantes de las comunidades afectadas, tendrían la misión de:

  • Evaluar el impacto social potencial de un sistema de IA antes de su implementación.
  • Auditar periódicamente los algoritmos en producción para detectar la aparición de sesgos no previstos.
  • Establecer canales de apelación claros y accesibles para las personas que se sientan perjudicadas por una decisión algorítmica.
  • Publicar informes de transparencia que expliquen el funcionamiento de los sistemas, los datos utilizados y las medidas de equidad implementadas.

Este proceso de vigilancia continua es la única forma de asegurar que la IA sirva realmente a la causa de la justicia social y no se convierta en una nueva y sofisticada herramienta de exclusión.

3. Co-creación y gobernanza participativa: forjando una IA con alma social desde Euskadi

La innovación más radical y sostenible en este campo no provendrá de un genio solitario en un laboratorio tecnológico, sino de la inteligencia colectiva y la colaboración genuina. Para que la IA tenga un “alma social”, debe ser concebida, diseñada y gobernada por la propia sociedad. En este contexto, el TSSE, que se nutre de una sociedad con un fuerte arraigo comunitario y una reconocida tradición de cooperación, está en una posición privilegiada para liderar este cambio de paradigma.”

Laboratorios de innovación social con IA: más allá de la consulta

Debemos superar el modelo extractivo donde la tecnología se “diseña para” las comunidades y avanzar hacia un modelo de co-creación donde se “diseña con” ellas. Esto requiere la creación de “laboratorios de innovación social con IA” en Euskadi. Estos no serían meros focus groups, sino espacios físicos y metodológicos dinámicos y permanentes donde:

  • Personas usuarias de servicios sociales, personas con discapacidad, mayores y otros colectivos no son vistos como sujetos de estudio, sino como expertos en su propia experiencia vivida. Su participación activa desde la fase de ideación es crucial para definir los problemas reales que la tecnología debe resolver.
  • Profesionales del sector social (trabajadores sociales, educadores, psicólogos) aportan su conocimiento del terreno, sus metodologías de intervención y su visión ética.
  • Tecnólogos, científicos de datos e ingenieros aportan su pericia técnica, pero en un rol de facilitadores, traduciendo las necesidades sociales en soluciones viables.
  • Expertos en ética, derecho y ciencias sociales garantizan que el desarrollo se alinee con los derechos humanos, la privacidad y la justicia social.

Este enfoque, basado en metodologías como el Design Thinking o la Investigación-Acción Participativa, asegura que las soluciones no solo sean tecnológicamente robustas, sino también contextualmente relevantes, culturalmente sensibles y verdaderamente útiles para la comunidad vasca.

Gobernanza descentralizada: hacia la soberanía tecnológica social

La co-creación en el diseño debe ir acompañada de una democratización en la gobernanza. ¿Quién es el dueño de los datos generados por el Tercer Sector? ¿Quién decide cómo se utilizan los algoritmos que afectan a la vida de las personas? Para evitar una nueva forma de colonialismo digital, donde las grandes corporaciones tecnológicas controlan la infraestructura y los datos, es vital explorar modelos de “gobernanza descentralizada”.

Inspirándose en la tradición cooperativista vasca, podríamos imaginar la creación de «cooperativas de datos para el bien social» en Euskadi. En este modelo, las organizaciones del Tercer Sector y los propios ciudadanos podrían mancomunar sus datos de forma segura y anonimizada. Los miembros de la cooperativa decidirían colectivamente sobre el uso de esos datos, permitiendo su análisis para la investigación social o el entrenamiento de modelos de IA, pero siempre bajo un control democrático y con el objetivo de generar un beneficio para la comunidad, no un lucro privado. Esto representa un paso hacia la «soberanía tecnológica social», donde las comunidades recuperan el control sobre su información y su futuro digital.

Alfabetización digital crítica: de consumidores a ciudadanos digitales activos

Ninguno de estos cambios será posible sin un pilar fundamental: la “alfabetización digital crítica”. Esta va mucho más allá de enseñar a usar una aplicación. Se trata de empoderar a todos los actores sociales con el conocimiento y las herramientas para comprender, cuestionar y participar en la configuración del mundo digital.

  • Para los profesionales del sector: Programas de formación que no solo expliquen qué es la IA, sino que les capaciten para identificar posibles sesgos, para dialogar con los desarrolladores/as y para utilizar estas herramientas de forma ética y eficaz.
  • Para los beneficiarios y la ciudadanía en general: Talleres y materiales divulgativos en formatos accesibles que expliquen cómo funcionan los algoritmos que afectan sus vidas, cuáles son sus derechos (como el derecho a la explicación) y cómo pueden participar en los procesos de diseño y auditoría.
  • Para los líderes y gestores de las organizaciones: Formación estratégica para que puedan tomar decisiones informadas sobre la adopción de tecnologías de IA, evaluando no solo el coste económico, sino también el impacto social y ético a largo plazo.

El objetivo es transformar a las personas de meros consumidores pasivos de tecnología a ciudadanos digitales activos y críticos, capaces de moldear colectivamente un futuro tecnológico que sirva a sus intereses y valores.

4.    Sembrando las semillas de una IA humanista para un futuro inclusivo en Euskadi

El camino hacia una Inteligencia Artificial que promueva la equidad radical no es una autopista tecnológica, sino un sendero de montaña que requiere esfuerzo, deliberación y una brújula ética firme. Es una pregunta sobre qué tipo de sociedad queremos construir en la era digital.

Alcanzar este futuro humanista no es tarea de un único agente, sino una responsabilidad compartida que interpela a toda la sociedad vasca. Para que esta oportunidad se materialice, es necesario un pacto social donde cada actor asuma sus desafíos y responsabilidades:

  • Las administraciones públicas tienen el reto de ir más allá de la mera regulación, diseñando políticas activas que fomenten la innovación con impacto social, adapten los marcos legales para proteger los derechos fundamentales y promuevan una compra pública de tecnología basada en criterios éticos.
  • El Tercer Sector Social de Euskadi está llamado a ser el líder ético de esta transición. Su desafío es construir una visión y una voz común sobre la IA, actuando como la conciencia crítica que garantiza que la dignidad de las personas usuarias permanezca siempre en el centro.
  • Las empresas tecnológicas y los equipos de desarrollo deben transformarse de proveedores en aliados. Su aportación crucial será adoptar la ética por diseño, abrir sus procesos a la co-creación y comprender que su éxito en el ámbito social se mide por el bienestar que generan, no solo por la eficiencia que alcanzan.
  • La ciudadanía y las personas usuarias tienen la oportunidad de empoderarse. El reto es pasar de ser sujetos pasivos de la tecnología a ciudadanos digitales activos y críticos, formados para exigir transparencia y participar en el diseño y la auditoría de los sistemas que les afectan.

Y, de manera transversal, emerge el desafío de articular modelos de financiación sostenibles que comprendan y valoren el inmenso retorno social de invertir en una IA justa, más allá del beneficio económico inmediato.

Es el momento de sembrar, con la paciencia del baserritarra y la visión colaborativa del auzolan, las semillas de esta IA verdaderamente humanista. Una IA que nos conecte, que nos comprenda y que nos ayude a romper las cadenas de la historia. El horizonte de la equidad radical nos espera, y sólo lo alcanzaremos a través del compromiso audaz y coordinado de todos.

 

[1] En este texto, el concepto de “equidad radical” se define como un compromiso que trasciende la simple mitigación de daños. Implica el desmantelamiento consciente y proactivo de los sesgos algorítmicos —entendidos como un reflejo de desigualdades históricas— con el fin de diseñar sistemas de IA que no solo eviten la discriminación, sino que funcionen activamente como un motor para la justicia social y la inclusión.

[2] El término “arqueología de datos” es una metáfora que describe el proceso de investigar un conjunto de datos como si fuera un yacimiento arqueológico. Implica “excavar” en su origen para entender con qué propósito se recogieron, qué sesgos históricos o sociales pueden contener, y qué perspectivas o comunidades están ausentes o infrarrepresentadas en ellos. El objetivo es tomar conciencia de las imperfecciones de los datos antes de utilizarlos para entrenar un modelo de IA.