BAISH Logo
BuenosAiresAISafetyHub
Sobre nosotrosProgramasRecursosContacto
EnglishEspañol
Sumate
Inicio / Seguridad en IA

Entendiendo la Seguridad en IA

Conoce al Equipo

¿Que es la Seguridad en IA?

La Seguridad en IA es un campo de investigación enfocado en asegurar que los sistemas avanzados de inteligencia artificial sigan siendo beneficiosos, alineados con los valores humanos y bajo control humano a medida que se vuelven más capaces. Abarca áreas técnicas de investigación como alineamiento, interpretabilidad y robustez, así como consideraciones de gobernanza sobre cómo deberían desarrollarse e implementarse los sistemas de IA.

¿Por que es Importante?

A medida que los sistemas de IA se vuelven más poderosos y autónomos, pueden desarrollar capacidades que podrían llevar a consecuencias no deseadas si no están diseñados y controlados adecuadamente. Lo que está en juego es importante: la IA avanzada podría ayudar a resolver los mayores desafíos de la humanidad, pero también presenta riesgos significativos si se desarrolla sin medidas de seguridad adecuadas. El campo busca maximizar los beneficios mientras minimiza los daños potenciales.

Riesgos y Desafios Principales

  • Problema de Alineamiento

    Asegurar que los sistemas de IA persigan objetivos alineados con los valores e intenciones humanas, incluso cuando se vuelven más capaces.

  • Interpretabilidad

    Desarrollar técnicas para entender cómo los sistemas de IA toman decisiones y representan conocimiento.

  • Robustez

    Crear sistemas que se comporten de manera segura incluso cuando se implementan en nuevos entornos o enfrentan situaciones inesperadas.

  • Comportamiento de Busqueda de Poder

    Prevenir que los sistemas de IA desarrollen objetivos instrumentales que entren en conflicto con el bienestar humano.

  • Desafios de Coordinacion

    Garantizar que se mantengan estándares de seguridad en todos los principales esfuerzos de desarrollo de IA a nivel mundial.

Nuestro Enfoque

Areas de Enfoque

En BAISH - Buenos Aires AI Safety Hub, nos enfocamos en varias áreas clave dentro de la investigación de seguridad en IA:

  • Interpretabilidad de Cadena de Pensamiento
  • Evaluaciones de LLMs
  • Interpretabilidad mecanica de redes neuronales

Nuestra Contribucion

Contribuimos al campo a través de:

  • Apoyando proyectos de investigación estudiantil
  • Construyendo una comunidad regional de investigadores en seguridad de IA
  • Organizando talleres, programas de formación y hackathons
  • Mentoreando a estudiantes interesados en carreras de seguridad en IA

Fundadores

Eitan Sprejer

Eitan Sprejer

Co-director Fundador

Eitan es investigador de Seguridad en IA a tiempo completo a través del programa AISAR Scholarships y la Apart Lab Fellowship. Ha sido primer autor de papers de Seguridad en IA aceptados en workshops de NeurIPS y coautor de the paper "Strategic Deception in AI Systems". Es Licenciado en Física en la Universidad de Buenos Aires. Ha sido asistente de enseñanza en los campamentos de ML4G en dos ocasiones y ha sido facilitador del AISES course del Center for AI Safety. Actualmente es facilitador del Blue Dot Research's AGI Strategy course.

Luca De Leo

Luca De Leo

Co-director Fundador

Luca ha estado involucrado en Seguridad en IA desde 2016. Después de abandonar una maestría en Ciencias de la Computación en la Universidad de Buenos Aires, recibió becas de ACX+ y el Long Term Future Fund para capacitarse en investigación de Seguridad en IA. Ha trabajado en operaciones en Nonlinear y logró el primer lugar en dos sprints separados de Apart Research y un segundo lugar. Actualmente realiza operaciones a tiempo parcial para el canal de YouTube AI Species, que ha obtenido más de 14 millones de vistas creando conciencia sobre Seguridad en IA. Actualmente es facilitador del Blue Dot Research's AGI Strategy course.

¿Queres charlar?

Invitamos a cualquier persona interesada en seguridad en IA a agendar una llamada con nosotros.

Reservá con EitanReservá con Luca

Equipo Principal

Liderazgo

Lucas Vitali

Lucas Vitali

Director de Comunicación

Carlos Giudice

Carlos Giudice

Advisor

Sergio Abriola, PhD

Sergio Abriola, PhD

Advisor

Guido Bergman

Guido Bergman

Advisor

Voluntarios

Gaspar Labastie

Gaspar Labastie

Facilitador de AI Safety Fundamentals

Tobias Bersia

Tobias Bersia

Facilitador del AIS Workshop

Gonzalo Heredia

Gonzalo Heredia

Asistente de Programas

Apoyo Externo

BAISH cuenta con el apoyo de:

Open Philanthropy

La misión de Open Philanthropy es donar de la manera más efectiva posible para ayudar a otros tanto como sea posible.

Visitar sitio web

Kairos

Programa Pathfinder

Kairos apoya el desarrollo del campo de seguridad en IA a través de su programa Pathfinder, que ayuda a acelerar iniciativas prometedoras.

Pathfinder·Kairos
BAISH Logo

Buenos Aires AI Safety Hub

© 2025 BAISH. Todos los derechos reservados.

Sobre nosotrosProgramasRecursosContacto
Política de privacidad