Dos nuevos artĂculos acadĂ©micos reflejan el compromiso de Bloomberg con una IA transparente, confiable y responsable
Desde descubrir que los modelos de lenguaje de gran tamaño (LLMs) basados en generaciĂłn aumentada por recuperaciĂłn (RAG) son menos “seguros”, hasta introducir una taxonomĂa de riesgos de contenido de IA que satisface las necesidades Ăşnicas de los sistemas de IA Generativa en los servicios financieros, los investigadores de los grupos de IngenierĂa de IA, IA de Datos y la Oficina del CTO de Bloomberg tienen como objetivo ayudar a las organizaciones a implementar soluciones más confiables.
Se han publicado dos nuevos artĂculos acadĂ©micos que tienen implicaciones significativas sobre cĂłmo las organizaciones implementan sistemas de IA Generativa de manera más segura y responsable, particularmente en dominios de alto riesgo como los servicios financieros de los mercados de capitales.
En “Los LLMs RAG no son más seguros: un análisis de seguridad de la generaciĂłn aumentada por recuperaciĂłn para modelos de lenguaje grandes”, los investigadores de Bloomberg descubrieron que RAG, una tĂ©cnica ampliamente utilizada que integra contexto de fuentes de datos externas para mejorar la precisiĂłn de los LLMs, en realidad puede hacer que los modelos sean menos “seguros” y que sus resultados sean menos confiables.
Para determinar si los LLMs basados en RAG son más seguros que sus contrapartes no RAG, los autores utilizaron más de 5,000 preguntas para evaluar los perfiles de seguridad de 11 LLMs populares, incluidos Claude-3.5-Sonnet, Llama-3-8B, Gemma-7B y GPT-4o. Al comparar los comportamientos resultantes en 16 categorĂas de seguridad, los hallazgos demuestran que hubo grandes aumentos en las respuestas inseguras bajo el entorno RAG. En particular, descubrieron que incluso los modelos muy “seguros”, que se negaron a responder casi todas las consultas en el entorno no RAG, se vuelven más vulnerables en el entorno RAG.

El cambio de perfil de riesgo de no RAG a RAG depende del modelo. (Figura 3, Los LLMs RAG no son más seguros: un análisis de seguridad de la generación aumentada por recuperación para modelos de lenguaje grandes, arXiv, 2025.)
Esta investigaciĂłn subraya claramente la necesidad de que cualquier persona que utilice LLMs RAG evalĂşe si sus modelos tienen capas ocultas de vulnerabilidad y quĂ© salvaguardias adicionales podrĂan tener que agregar.
“Este hallazgo contraintuitivo tiene implicaciones de gran alcance dado lo ubicuo que es el uso de RAG en aplicaciones de IA Generativa, como los agentes de atenciĂłn al cliente y los sistemas de preguntas y respuestas. El usuario promedio de Internet interactĂşa diariamente con sistemas basados en RAG”, explicĂł la Dr. Amanda Stent, Bloomberg’s Head of AI Strategy & Research en la Oficina del CTO. “Los profesionales de la IA deben ser reflexivos sobre cĂłmo usar RAG de manera responsable y quĂ© medidas de protecciĂłn existen para garantizar que los resultados sean apropiados. Nuestra investigaciĂłn ofrece un marco para abordarlo, con el fin de que otros puedan evaluar sus propias soluciones e identificar cualquier punto ciego potencial”.
En un artĂculo relacionado, “ComprensiĂłn y mitigaciĂłn de los riesgos de la IA generativa en los servicios financieros”, los investigadores de Bloomberg examinaron cĂłmo se está utilizando la IA Generativa en los servicios financieros de los mercados de capitales y descubrieron que las taxonomĂas de seguridad de propĂłsito general y los sistemas de protecciĂłn existentes no tienen en cuenta los riesgos especĂficos del dominio.
Para cerrar esta brecha, introdujeron una nueva taxonomĂa de riesgos de contenido de IA que satisface las necesidades de los sistemas de IA Generativa del mundo real para los servicios financieros. Va más allá de lo que pueden abordar las taxonomĂas de seguridad de propĂłsito general y los sistemas de protecciĂłn al abordar los riesgos especĂficos del sector financiero, como la divulgaciĂłn confidencial, la narrativa contrafactual, la imparcialidad de los servicios financieros y la mala conducta de los servicios financieros.
 “Ha habido avances en la investigaciĂłn acadĂ©mica que abordan la toxicidad, el sesgo, la equidad y los problemas de seguridad relacionados para las aplicaciones de IA Generativa para una amplia audiencia de consumidores, pero ha habido significativamente menos enfoque en la IA Generativa en aplicaciones industriales, particularmente en los servicios financieros”, dijo David Rabinowitz, Technical Product Manager for AI Guardrails at Bloomberg.
Las categorĂas en la taxonomĂa de seguridad de contenido de IA de Bloomberg para servicios financieros. (Tabla 1, ComprensiĂłn y MitigaciĂłn de los Riesgos de la IA Generativa en los Servicios Financieros, arXiv 2025
“Existe una inmensa presiĂłn para que las empresas de todas las industrias adopten la IA, pero no todos tienen la experiencia al interior de la organizaciĂłn, las herramientas o los recursos para comprender dĂłnde y cĂłmo implementar la IA de manera responsable”, dijo el Dr. Sebastian Gehrmann, Bloomberg’s Head of Responsible AI. “Bloomberg espera que esta taxonomĂa, cuando se combina con los sistemas de ‘red teaming’ y de salvaguardias, ayude a permitir de manera responsable a la industria financiera a desarrollar sistemas de IA Generativa seguros y confiables, a cumplir con los estándares y expectativas regulatorias en evoluciĂłn, asĂ como a fortalecer la confianza entre los clientes”.
El artĂculo sobre la seguridad de RAG se presentará en la Conferencia Anual de 2025 del CapĂtulo de las Naciones de las AmĂ©ricas de la AsociaciĂłn de LingĂĽĂstica Computacional (NAACL 2025) en Albuquerque, Nuevo MĂ©xico, a finales de esta semana. El artĂculo sobre la taxonomĂa de riesgos de IA se presentará en la Conferencia ACM sobre Equidad, Responsabilidad y Transparencia (FAccT) en Atenas, Grecia, en junio. Para obtener más detalles, lea la publicaciĂłn del blog Tech At Bloomberg y ambos artĂculos en arXiv:
- “Los LLMs RAG No Son Más Seguros: Un Análisis de Seguridad de la GeneraciĂłn Aumentada por RecuperaciĂłn para Modelos de Lenguaje Grandes” [enlace incrustado]
- “ComprensiĂłn y MitigaciĂłn de los Riesgos de la IA Generativa en los Servicios Financieros” [enlace incrustado]
Sobre Bloomberg AI:
Desde 2009, Bloomberg ha estado construyendo y utilizando inteligencia artificial (IA) en el ámbito financiero – incluyendo aprendizaje automático (ML), procesamiento del lenguaje natural (NLP), recuperaciĂłn de informaciĂłn (IR), análisis de series temporales y modelos generativos – para ayudar a procesar y organizar el volumen cada vez mayor de informaciĂłn financiera estructurada y no estructurada. Con esta tecnologĂa, Bloomberg está desarrollando nuevas formas para que los profesionales de las finanzas y los lĂderes empresariales obtengan valiosa inteligencia y perspectivas procesables a partir de informaciĂłn financiera de alta calidad y tomen decisiones empresariales más informadas. Conoce más sobre las soluciones de IA de Bloomberg en www.bloomberg.com/AIatBloomberg.
##