Un agente de IA interfiere con el aprendizaje de nuevos desarrolladores
Un agente de inteligencia artificial del proyecto DisMech completó automáticamente una tarea de GitHub que había sido diseñada específicamente como ejercicio de aprendizaje para un nuevo colaborador.
El incidente
El usuario sagehrke había abierto una tarea para curar información sobre dislexia (MONDO:0005489) en el repositorio monarch-initiative/dismech. La tarea incluía un resumen de investigación detallado y estaba etiquetada como "good first issue" (buena primera tarea), indicando que era apropiada para nuevos contribuidores.
Sin embargo, el agente dragon-ai-agent detectó automáticamente la tarea y la completó en cuestión de días, creando un pull request (#1803) con una entrada básica para la dislexia antes de que el usuario humano pudiera trabajar en ella.
Disculpas y medidas correctivas
El mantenedor del proyecto cmungall se disculpó públicamente: "El agente de curación recogió esto con demasiada avidez y creó el PR #1803 antes de que tuvieras la oportunidad de trabajar en ello tú mismo. Esa no era la intención: esto estaba destinado a ser tuyo para abordarlo como primera entrada de dismech, y el agente te privó de esa oportunidad de aprendizaje".
Creación de nuevas políticas
Como respuesta al incidente, el equipo creó la tarea #1808 para establecer reglas claras sobre cuándo el escáner automatizado NO debe recoger tareas, incluyendo el respeto por las tareas estilo "good first issue" y dar un período de gracia a los nuevos colaboradores.
Reflexión sobre incidentes de IA
El usuario smcgregor, que mantiene una base de datos de incidentes de IA en incidentdatabase.ai, comentó que "un agente que priva a alguien de una oportunidad de aprendizaje está en el límite de ser un incidente según los criterios que aplicamos".
El caso ilustra cómo los sistemas automatizados pueden interferir inadvertidamente con procesos de aprendizaje humano, incluso cuando funcionan según su diseño técnico.
