Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
Speaker 2 (00:01):
Ponte cómodo y escúchanos en un Rosario Radio.
Speaker 3 (00:32):
Regresamos con Ciudadanos en Acción para retomar nuestra misión, recordarles
que el derecho es de y para todos. Por ello,
les damos la bienvenida a todos y todas a este
programa del Grupo de Acciones Públicas de la Universidad del Rosario.
Speaker 2 (00:45):
Síguenos en nuestras redes sociales como GAP U Rosario y
U Rosario Radio.
Speaker 3 (00:54):
En el Control Master tenemos a Nelson Duarte, estamos bajo
la dirección general de Mario Castro y quien les habla
Laura Sofía Casallas y bienvenidos a Ciudadanos en Acción. Hoy
queremos hablar de un tema que es de público conocimiento
y que viene teniendo cada vez más importancia y se
ha vuelto parte de todas las conversaciones, la inteligencia artificial.
(01:18):
Desde asistentes virtuales hasta sistemas que ayudan a diagnosticar enfermedades,
la inteligencia artificial está transformando el mundo y el derecho
no es la excepción. Muchas veces se cree que este
tema pertenece solo al campo de la ingeniería o de
la informática, pero en realidad la inteligencia artificial ya está
impactando directamente en cómo se toman decisiones judiciales, cómo se
regulan los derechos digitales y cómo se protege la información
(01:40):
de las personas. Hoy nos acompañan Feripe Guarín y Mary Linton. Chicos,¿
cómo están?
Speaker 4 (01:46):
Hola Laura, hola doctor,¿ cómo están? Muy contenta y agradecida
de estar en este espacio y súper intrigada sobre este
tema que nos compete a todos y que en realidad
está como en nuestro diario vivir cada vez más frecuente.
Hola
Speaker 5 (01:59):
a todos,¿ cómo están? Doctor, muchas gracias por aceptar nuestra invitación.
En verdad, nosotros siempre intentamos tener temas novedosos y que
busquen mostrar cómo se transforma el derecho y nuestra actividad
también desde el GAP se ve afectada por la inteligencia artificial,
no solamente como herramienta que utilizamos, sino desde las problemáticas
a las que buscamos dar respuesta. Entonces creo que va
(02:20):
a ser una conversación muy interesante que nos va a
ayudar a ilustrar ese punto.
Speaker 3 (02:24):
Por supuesto, nos acompaña también nuestro invitado, el doctor Grenfiet Sierra,
quien es abogado y consultor experto en Derecho Administrativo, Constitucional
y Arbitraje Internacional. Ha sido también docente invitado en universidades
de Francia y Alemania y es autor de El Juez Constitucional,
un acto regulador de las políticas públicas y derecho administrativo
y ciudades inteligentes. Es además quien lideró la implementación del
(02:47):
primer sistema de inteligencia artificial en la Corte Constitucional y
el Consejo de Estado, siendo referente nacional en justicia digital,
que fue diseñado para optimizar la gestión judicial, permitiendo procesar,
clasificar y analizar grandes volúmenes de información jurídica, como sentencias,
tutelas y expedientes de manera automatizada, cosa que por supuesto
es muy novedosa y supremamente útil. Doctor,¿ cómo se encuentra?
Speaker 6 (03:10):
No, primero que todo, un saludo especial a Laura, a Felipe,
a Mary por esta invitación, al Grupo de Acciones Públicas
Universidad del Rosario, muy contento de estar con ustedes y
poder dialogar de estos temas.
Speaker 5 (03:20):
Sí, bueno doctor, continuando con la conversación que teníamos, indudablemente
la inteligencia artificial trae con ello un montón de, digamos,
situaciones técnicas que van directamente ligadas, como decía Laura, con
los programadores, con los ingenieros, Pero nosotros creemos que también
el papel del abogado tiene mucho que ver, especialmente, claro,
(03:42):
desde la regulación, que ya vamos a hablar de eso,
pero también desde cómo nosotros ayudamos a desarrollar este tipo
de contenidos. En ese sentido, quisiéramos preguntarle, doctor,¿ cómo cree
que en la parte técnica de creación y desarrollo nosotros
como abogados podemos aportar a este campo?
Speaker 6 (03:57):
Felipe... Tenemos la falsa idea que inteligencia artificial, que tecnologías
informáticas no tienen nada que ver con el derecho. Digamos,
eso es una idea que se construye cuando se desarrollan
estas tecnologías que tienen ya varias décadas porque se hacían
con una lógica meramente funcional de resolver problemas en empresas, contabilidad,
(04:18):
mejorar procesos de producción. Pero cuando se desarrollan dos tecnologías
que son muy importantes que hay que tener en cuenta,
una es la tecnología de la internet, dos la tecnología
de lo que se va a denominar la web.2 que
es la tecnología de almacenamiento en nube que va a
comenzar a construir lo que todos tenemos ahorita que son aplicaciones.¿
(04:38):
Y por qué aplicaciones con la tecnología de la nube?
Precisamente porque los datos o todos esos datos sobre los
cuales van a operar las plataformas y van a operar
estos sistemas como Facebook, Instagram, son datos que se almacenan
de forma externa, todo va a cambiar radicalmente, va a
cambiar radicalmente porque en ese momento, Nuestra información, nuestros contenidos,
(05:01):
lo que se denominan datos personales, fotos, opiniones políticas, opiniones religiosas,
nuestras propias relaciones humanas, van a comenzar a ser procesadas
por sistemas informáticos, por plataformas y este modelo de procesamiento
forzosamente va a impactar los derechos humanos y un derecho
(05:22):
particular que se llama el derecho a la privacidad. Entonces
tiene que ver hoy todo con el derecho, o sea,
porque estas plataformas no son neutras. Cuando hay una afectación
a una plataforma informática, cuando hay una afectación a una
red social, esa afectación va a impactar directamente nuestra intimidad
(05:42):
y nuestra privacidad. Entonces el derecho está jugando un rol
central en esta discusión.
Speaker 4 (05:48):
Claro que sí, doctor. Y en el mundo quizás la
conversación sobre cómo regular todos estos efectos que tiene la
inteligencia artificial ya está bastante avanzada. Por ejemplo, la Unión
Europea aprobó recientemente el AI Act, que es una normativa
pionera que busca establecer límites claros al desarrollo y uso
de los sistemas de inteligencia artificial, clasificándolo según su nivel
(06:10):
de riesgo. En Estados Unidos, aunque no hay una ley
federal específica, sí existen directrices éticas y mecanismos de autorregulación
en sectores como la seguridad y la salud. Incluso en
países como Canadá, Japón, Corea del Sur e incluso China,
lo cual es un poco paradójico porque su sistema no
es un sistema democrático, han impulsado estrategias nacionales de IA
(06:31):
que incluyen principios de transparencia, responsabilidad y protección de datos personales.
Pero cuando miramos hacia América Latina, el panorama es completamente distinto.
Hay algunos avances como el proyecto de ley de inteligencia
artificial en Brasil o las discusiones sobre la ética algorítmica
en Chile y en México, pero todavía no contamos con
una política regional coherente ni con marcos regulatorios robustos. Por eso, doctor,
(06:54):
yo quisiera preguntarles desde su experiencia a qué se debe
este rezago en nuestra región y cómo podríamos avanzar hacia
una regulación que proteja los derechos humanos sin frenar la
innovación tecnológica que hoy en día es global.
Speaker 6 (07:08):
Usted toca varios temas que son esenciales. Primer tema sobre
el cual debemos generar un consenso y creo que es
una realidad, la tecnología y sobre todo estas tecnologías informáticas
que procesamiento de datos masivos, el tema de inteligencia artificial, plataformas.
Todo esto está construyendo lo que se denomina la nueva
economía global y la nueva geopolítica global. Entonces es un
(07:32):
punto esencial. Hoy las dinámicas económicas geopolíticas no son las
de hace 20 años, que eran simplemente estructuras de producción industrial
o una geopolítica basada simplemente en fronteras nacionales. sino hoy
es cómo se posesionan estos grandes actores en el manejo
masivo de datos y cómo se posesionan en el desarrollo
(07:54):
de tecnologías pioneras. Y sobre eso, digamos, todas las grandes potencias,
sobre todo Estados Unidos y China, están en una competencia
muy fuerte en ese escenario. Entonces ese es un primer consenso.
Y esto cambia para siempre, digamos, el paradigma sobre el cual, digamos,
las naciones y los estados tienen que operar. El segundo
(08:15):
elemento que usted anota, que es fundamental, es que esto
ya no es una discusión nacional, sino una discusión regional
de regiones, de estructuras grandes, estructuras geopolíticas. Lo que pasa
es que China, evidentemente, en sí misma es una región,
es un país... que incluye varias naciones y que tiene
más de mil millones de habitantes, en sí mismo ya
es un peso gigante, Estados Unidos pues es la mayor
(08:38):
economía del mundo, una población yo creo que ronda los 400 millones,
a riesgo de equivocarme, la Unión Europea es una región grande,
que sería, digamos, la mayor región económica del mundo, que
incluye a 27 naciones, etc. Entonces, como usted lo plantea muy bien,
es una discusión de regiones y sobre la cual está
surgiendo un cuarto actor muy importante, que es la India.
(09:00):
No olviden eso, la India es el otro cuarto actor.
Entonces tenemos... Es una discusión de nueva geopolítica, de nueva economía,
es una discusión regional. Pregunta,¿ qué sucede con América Latina?
Usted dice, y la paradoja es la siguiente. Primero, no
estamos tan atrasados, paradójicamente, porque, aunque no es muy público,
América Latina tiene algo que se llama la Rey Iberoamericana
(09:23):
de Autoridades de Protección de Datos. Esta red se reúne
periódicamente cada seis meses y busca construir estándares regionales de protección. Entonces,
si usted ve las dinámicas o los modelos regulatorios de
datos de América Latina, va a ver que hay unos
lineamientos muy similares, unos estándares que se han ido aplicando
(09:44):
y las autoridades buscan desarrollarlos. En materia de inteligencia artificial,
que es otra discusión, hay un inmenso desfase.¿ Y por qué?
Porque América Latina no es productora de tecnología, nosotros no
desarrollamos innovación, no tenemos grandes empresas tecnológicas, sino lo que
nos hemos convertido es en proveedores de datos. O sea,
(10:05):
somos simplemente actores que proveen datos. Y ahí hay un
gran trabajo que hacer porque de nada vale, digamos, desarrollar
marcos robustos en materia de inteligencia artificial cuando nosotros no
somos actores estratégicos de este sector. Entonces debe haber una
gran política pública en los estados, evidentemente potencias como Brasil,
como México, pero en los estados en América Latina para
(10:28):
comenzar a desarrollar estas industrias.¿ Cómo somos desarrolladores de industrias
de inteligencia artificial? Pero en materia de protección de datos
tenemos unos marcos interesantes, marcos serios, marcos robustos. Colombia tiene
la ley 1581, es una ley seria, una ley que le
da instrumentos a la autoridad y sobre la cual, digamos,
se ha trabajado seriamente. Y una jurisprudencia constitucional también muy
(10:52):
robusta y muy actualizada en estos marcos. Entonces simplemente dividiría
la discusión en eso. En marco normativo de datos no
estamos mal, somos un país y un continente serio, pero
en desarrollos de tecnología y en marcos normativos de inteligencia
artificial estamos profundamente rezagados porque no somos un actor importante
(11:13):
para el mundo.
Speaker 3 (11:15):
Claro, doctor, hay algo que preocupa bastante y es que
detrás de cada uno de los algoritmos hay ciertas decisiones
que pueden afectar directamente diferentes derechos fundamentales. Por ejemplo, hay
un caso que es muy conocido que fue el caso
de Facebook en las elecciones presidenciales en Estados Unidos en
el año 2016-2017. cuando se descubrió que habían diferentes algoritmos
(11:36):
de segmentación publicitaria que fueron utilizados para desinformar a grupos
específicos votantes afectando potencialmente la opinión pública y la integridad
de un proceso democrático. Esto lo que demostró fue que
los algoritmos no son neutrales y que su uso puede
tener consecuencias reales sobre derechos como la libertad de expresión,
el acceso a la información y la participación política sobre todo.
(11:59):
Y si esto ocurre en el ámbito netamente político, imagínense
lo que puede pasar en contextos judiciales o en contextos
administrativos donde una decisión automatizada puede definir el acceso a
la justicia, a la salud o a subsidios del Estado,
por poner algunos ejemplos. Entonces por eso yo creo que
hablar de inteligencia artificial no es solamente hablar en materia
de tecnología, sino también de ética, de responsabilidad y sobre
(12:22):
todo garantías constitucionales. Desde su perspectiva, doctor,¿ usted cuáles cree
que son los principales riesgos que plantea la inteligencia artificial
con respecto a los derechos humanos? Es decir,¿ cómo podemos
garantizar que los algoritmos se diseñen y se utilicen bajo
principios como la igualdad, la transparencia, la no discriminación?
Speaker 6 (12:41):
Los riesgos son todos, como usted anota, evidentemente, que son
sistemas de inteligencia artificial, que son estructuras que manipulan bases
de datos. La particularidad es que cada uno de nosotros
hoy es una base de datos. Entonces, toda la información
que hicimos en Instagram, en Facebook, la información que tiene
nuestra EPS, la información que tiene el Estado, todo, digamos,
es información. Y esa información, si es mal utilizada, si
(13:02):
es instrumentalizada, va a tener una afectación gravísima en la
vida de cada uno de nosotros. Y les pondría el
siguiente ejemplo. Todos nosotros somos objeto de perfilamiento por el
sistema financiero. Cuando cualquiera de nosotros va a pedir un préstamo,
un crédito, se hace un estudio en unas bases de datos,
bases de datos que son legítimas, que son las centrales
(13:23):
de riesgo, hemos dado nuestra autorización para eso, etc. Entonces
nos da una calificación y a partir de esa calificación
somos objeto de un tipo de préstamo o no.¿ Qué
es lo que esperamos que suceda ahí? Lo que esperamos
que suceda ahí es que ese tipo de información sea
una información veraz, que sea una información real y que
sea una información temporalmente válida. Supongamos que hay información donde
(13:45):
nosotros no pagamos el celular hace 20 años y sea sobre
una información de hace 20 años sobre la cual nos estén
negando un préstamo, pues evidentemente es absolutamente irrelevante porque no
está reflejando nuestra realidad, esa temporal, esa anacrónica, entonces hay
una afectación real. Pero puede suceder en muchísimos factores. Si,
por ejemplo, se está en una práctica ilegal que es
muy delicada y es que muchas empresas están contratando otras
(14:10):
empresas privadas para que hagan estudio de perfilamiento de sus
empleados o de empleados que van a contratar.¿ Cuál es
el problema de eso? El problema de eso es que
muchas de estas empresas acceden a información reservada que está
prohibida que sea utilizada, por ejemplo, en la fiscalía, de
sistemas de la fiscalía donde la información no está depurada
entre una denuncia y una condena entonces a una persona
(14:33):
se le perfila simplemente porque ha sido una denuncia y
cualquiera de los otros puede ser objeto de denuncia pero
se le trata como si hubiese sido condenado de un
delito Y así puede suceder con muchísimos tipos de información.
Y esto evidentemente está prohibido por la ley, pero las
afectaciones son gravísimas. Son gravísimas. O que una empresa para
(14:54):
decir contratarnos decida hacer perfilamiento nuestro en las redes sociales.
Y esto también está prohibido porque está interviniendo en nuestra intimidad.
Entonces aquí hay, digamos, unas dificultades o unas violaciones masivas
en derechos humanos bastante graves.¿ Cómo plantear soluciones? La primera
(15:14):
solución es que el derecho, como ustedes anotan, ya no
puede estar o ser externo a la tecnología. Hoy es
fundamental que los abogados en todas las áreas del derecho,
porque ya no es una área específica, ya no es
derecho informático, derecho de las nuevas tecnologías, en derecho penal, comercial, constitucional, etcétera. Todos,
absolutamente todos los abogados tengan una formación, un conocimiento sólido
(15:35):
y serio de cómo operan estos sistemas, de cómo tratan
la información para, como anotaba Laura, desarrollar qué? Exigirle a
los sistemas informáticos que tengan dos modelos de protección. Uno
es que se llama desarrollo, digamos, de privacidad diferenciada, que
(15:55):
es un modelo matemático que está diciéndole, cuando usted trata datos,
usted debe tratar los datos utilizando la información, pero sin
vulnerar la intimidad de las personas. Y esto ya es
una reglamentación, por ejemplo, que ha desarrollado la Superintendencia de
Industria y Comercio, es una exigencia jurídica. La particularidad es
que no es un problema normativo clásico, sino es un
(16:16):
problema de arquitectura de los sistemas. Y de arquitectura de
las bases de datos, cómo se manejan. Entonces los abogados
tenemos que decir, bueno, usted operador informático, su sistema de
bases de datos está diseñado bajo el principio de privacidad diferenciada,
sí o no. segundo elemento usted ha hecho un estudio
de riesgos de vulnerabilidad en privacidad o sea usted está
(16:39):
operando un sistema ese sistema por ejemplo que maneja facebook
que maneja instagram pasa un test pasa una auditoría en
manejo de impacto de privacidad sí o no y su
arquitectura sobre la cual usted ha construido su sistema informático
es una arquitectura diseñada bajo parámetros de privacidad. Entonces,¿ qué
(16:59):
es lo que estamos viendo con esos tres ejemplos? Que
el problema ya no es que la norma diga que
está prohibido, que se puede o no se puede hacer.
El problema es cómo el derecho tiene que llegar, como
anota Laura, a impactar y a definir la arquitectura de
diseño del sistema. Y esto implica que nosotros los abogados
nos comencemos a formar en programación. No para hacer la programación,
(17:22):
sino para entender cuando un ingeniero, un matemático no lo explique,
decirle eso que está haciendo usted o ese criterio que
está desarrollando está vulnerando un derecho. Por favor modifíquelo y
por favor luego páselo por un criterio de estudio de impacto,
es decir, una auditoría en la cual estamos verificando que
no está vulnerando. Entonces esto es supremamente interesante y lleva
(17:44):
a dos conclusiones. Uno, que el derecho hoy día no
se puede entender sin que desarrolle competencias reales en materia informática.
Y el segundo elemento es que el derecho no va
a desaparecer. O sea, lo que estamos estudiando, lo que
nos involucra el derecho no va a desaparecer. Lo que
nos obliga a nosotros es a desarrollar nuevas competencias y
(18:06):
unas competencias que van más allá del simplemente conocimiento normativo
positivo clásico jurisprudencial hacia el desarrollo de las normatividades algorítmicas.
Y ahí va a ser un tema apasionante, o sea,
el derecho lo que va a es enriquecerse de una
forma apasionante porque nos amplía el campo del conocimiento.
Speaker 5 (18:25):
Hasta ahorita hemos hablado de cómo el derecho impacta cuando
los terceros desarrollan la tecnología, ¿cierto? Y las afectaciones que
puede tener frente a nuestros derechos humanos. Sin embargo, el
Estado en muchos casos se ve directamente involucrado en la
utilización de estas nuevas formas tecnológicas. En ese sentido, vemos
cómo hay diferentes estados que utilizan el derecho y su sistema,
(18:46):
la tecnología, perdón, y sistemas automatizados para tomar decisiones, digamos,
administrativas de política pública, incluso judiciales. Vemos el caso, por ejemplo,
de Estonia, que es un país en el que la
mayoría de los trámites se hacen a través de una aplicación,
a través de sistemas informáticos digitales. Quisiéramos preguntarle qué posición
deberían asumir los estados específicamente el estado colombiano frente a
(19:08):
estas situaciones en los que por ejemplo un proceso se
puede demorar cinco veces más de lo que debería tomar
los trámites administrativos igual y la burocracia es inmensa que
qué posición podríamos tener.
Speaker 6 (19:18):
Es un problema bastante fácil y bastante difícil al mismo tiempo.
Fácil porque si hay voluntad política, voluntad administrativa, un Estado
puede modernizarse rápidamente, puede asumir, digamos, unas lógicas de eficiencia
tecnológica rápidas y mejorar sus procesos. Digamos, eso no es difícil.¿
Qué es lo difícil? Lo difícil, evidentemente, es la voluntad
(19:41):
política de hacerlo y Y lo difícil es cambiar la
mentalidad o la cultura administrativa o judicial. Porque, digamos, los
jueces y los administradores operan bajo la lógica clásica que
se formaba en las universidades. Una lógica normativa, procesal, lineal,
sobre la cual, digamos, ven unos tiempos y se niegan
la posibilidad que la tecnología es una ayuda. O peor aún,
(20:04):
cuando utilizan la tecnología... No entienden que la tecnología también
tiene que estar arreglada y tiene que estar estructurada para
garantizar el debido proceso, garantizar toda una serie de elementos.
Ese es un desafío. Segundo desafío es que Colombia tiene
un grave problema, es que Colombia es un comprador de
sistemas informáticos y sobre todo el Estado colombiano. El Estado
(20:25):
colombiano no desarrolla sus propios sistemas. no hace lo que
los ingenieros le llaman ingeniería in-house, sino todo hace una
ingeniería externa, por proveedores externos. Y esto es complicado porque esto,
cuando usted va a Europa, son los estados que desarrollan
su propia tecnología, o son los chinos quienes desarrollan su
propia tecnología, o los Estados Unidos desarrollan su propia tecnología,
(20:47):
por un tema de seguridad nacional, por tema de soberanía informática,
o sea, pero Colombia no, Colombia decidió esto, y lo
hace evidentemente porque no comprende el fenómeno, y ahí está
Un segundo escenario que es muy difícil. El tercer escenario
es que el Estado colombiano siempre nos ocupamos de la
vulneración de derechos por los particulares, pero lo que no
(21:09):
nos preguntamos es que a veces los mayores riesgos de
vulneración de derechos pueden venir de cómo el Estado opera
sus propias bases de datos. Y cómo esa operación de
bases de datos es el propio Estado que termina vulnerando
derechos de las personas. Y aquí citaría dos sentencias de
la Corte Constitucional recientes que son muy importantes y que
(21:31):
dan luces. Una primera sentencia sobre la cual tengo críticas,
pero pues es muy interesante estudiarla, es la sentencia tutela
del magistrado Cortés. Juan Carlos Cortés, que es la 323 del 2024,
que precisamente va a estudiar todo el tema de uso
de sistemas de inteligencia artificial por los operadores jurídicos en Colombia.
(21:52):
Y la segunda sentencia es una sentencia, la T067 del 2025
de este año, de la magistrada Natalia Ángel, que nos
va a hablar de transparencia algorítmica.¿ Y por qué estas
sentencias son tan importantes? Porque precisamente van a hablar de
cómo las administraciones públicas tienen que asumir obligaciones en auditabilidad,
(22:13):
en transparencia, en impacto tecnológico cuando lo hace el sector
público frente a los ciudadanos. y digamos son importantísimas dónde
está digamos la mora frente a esto que el legislador
comienza a desarrollar estos temas hasta ahora lo que tenemos
es un desarrollo jurisprudencial pero necesitamos estructuras reglamentarias normativas que
(22:35):
le impongan orden a esto y que unos lineamientos claros
frente al sector público porque el sector público es importantísimo
el manejo de datos tendemos a pensar que la administración
es neutro que la administración sólo garantiza derechos Y esto, digamos,
es un error, porque cuando la administración se equivoca en
el uso de sus bases de datos, las afectaciones que
(22:56):
puede haber a los ciudadanos son gravísimas, gravísimas. En materia
de salud, negarle un tratamiento médico puede llevar a la
persona a la muerte. En materia pensional, negarle la pensión.
En materia de subsidios, pues, condenarlo a la pobreza. Entonces,
hay unos elementos estructurales. Y en materia de seguridad nacional
puede llegar, pues, a alguien que sea encarcelado o que
(23:17):
sea perseguido, que sea perfilado. Y aquí agregaría una tercera
sentencia que es muy importante, que es una sentencia que
creo que emite la Corte Interamericana en 2024 sobre el uso
de bases de datos por los organismos de seguridad en Colombia,
lo que fue el caso de la Asociación de Abogados Arbeláez,
si no me equivoco, puede estar equivocado, que es un grupo,
(23:40):
un colectivo de abogados y este colectivo de abogados fue
perseguido por los organismos de seguridad en Colombia. utilizando y
manipulando bases de datos públicas. Entonces
Speaker 2 (23:51):
la
Speaker 6 (23:51):
Corte Interamericana condena al Estado colombiano y le recuerda la
obligación de cómo el uso de bases públicas, de bases
de datos públicas, tiene que estar orientado frente a la
protección de los derechos de las personas y no orientada
a perseguir a la oposición política. Entonces ahí tenemos tres
lineamientos muy interesantes, donde digamos se entiende la inmensa responsabilidad
(24:12):
que tiene el Estado cuando maneja sus bases públicas. pero
paradójicamente por ejemplo la procuraduría no ha sido muy activa
en eso creo que hasta el día de ayer sacó
unos primeros lineamientos frente a esos temas pero pues hay
unos vacíos legales gigantescos ahí en Colombia
Speaker 4 (24:29):
Sí, doctor, como usted indica, definitivamente el reto en torno
a todo este mundo nuevo de las tecnologías y de
la implementación de la inteligencia artificial alrededor del mundo y
sobre todo en nuestro país tiene un reto jurídicamente inmenso
y hay mucho camino por trabajar. Por eso traigo a
colación de pronto lo que al principio nos decía Laura
y es sobre la iniciativa de El proyecto de inteligencia
(24:50):
artificial que ha tenido usted en las dos instituciones más
importantes del país, que son la Corte Constitucional y el
Consejo de Estado. Y pues eso sin duda también marca
un antes y un después en la forma en cómo
la ciudadanía entiende la administración de justicia. Y cómo, pues
de cierta manera, aunque uno la ve tan lejos, cómo
uno se puede acercar de pronto con estas nuevas implementaciones
(25:11):
de inteligencia artificial, de automatización de tecnologías, a el funcionamiento estatal. Entonces,
de pronto con eso, no sé si usted podría contarnos
cómo se diseñó este sistema al que usted... Ayude a
implementar cuáles fueron los pasos principales en su creación y
sobre todo qué resultados ha dado hasta ahora la Corte
Constitucional y el Consejo de Estado con estos sistemas que
(25:33):
de pronto ayudan o, como decía Felipe, logran que todo
este tema de la automatización nos ayude a tener como
un proceso administrativo un poco más eficiente y más novedoso.
Speaker 6 (25:49):
Muchas gracias por esa pregunta,¿ por qué? Porque si hay
algo de lo que tiene que sentirse orgulloso en los
últimos años, la Universidad del Rosario y la Facultad de
Jurisprudencia son estos dos proyectos. Es un proyecto que nace
en el Rosario, que es apoyado por el Rosario, en
el que se involucra la Facultad, digamos de lleno, con
sus dos decanos, en un primer momento el doctor... Con
(26:10):
el doctor Gaitán, con la doctora Laura en su momento
y que da un impacto importantísimo. Este es un proyecto
no solamente mío, es un proyecto de facultad. El segundo
escenario es que quien lo lidera en la corte constitucional
es una rosarista. que es la doctora Marta Sáchica, quien
va también a implementar este sistema y quien ve esto.¿
(26:32):
Y por qué es importante mencionar a Marta? Porque Marta
es alguien que duró 30 años siendo secretaria de la Corte
Constitucional desde que nació. Y ella antes de retirarse,¿ qué sucede?
Antes de retirarse tenemos un encuentro, digamos, espontáneo, nos vamos
a tomar un café y nos comenta si se me
va a retirar de la Corte Constitucional, pero tengo un
grave problema. El sistema de tutelas va a colapsar. Va
(26:54):
a colapsar porque diariamente están llegando entre 2.500 y 2.700 tutelas diariamente
a la corte y humanamente nos está resultando imposible dar
respuesta a esto. Y en ese diálogo surge la posibilidad
de que se comience a implementar un sistema de inteligencia
artificial que venía de desarrollarse en Argentina y que el
Rosario tenía conocimiento y se le propone hacer un piloto.
(27:18):
Un piloto es un ensayo sobre esto. Entonces la Universidad
del Rosario decide traer a un investigador, a un profesor
de la Universidad de Buenos Aires que se llama Juan Corbalán,
quien había desarrollado este sistema y desarrollar el piloto. El
piloto se firma un convenio, un convenio de cooperación con
la Corte Constitucional, con el presidente Rosario. de su época
(27:41):
y se da un trabajo de tres meses para desarrollar
el piloto. El piloto se lanza en la Universidad del
Rosario en el año 2019. El piloto es exitoso porque el
piloto logra demostrar con 2.700 tutelas que un trabajo que pueda
durar varios días o semanas se podría desarrollar en 10 minutos.
Y es hacer un sistema de clasificación de tutelas en
(28:02):
la Corte Constitucional con una serie de criterios que no
busque sustituir al juez, sino que busque depurarle la información
y busque, digamos, mejorar y hacer mucho más transparente y
eficiente su trabajo. El tema es tan exitoso que luego
la Cámara de Comercio, donde hay otro rosarista, presidente de Corferias,
(28:25):
el doctor Andrés López, decide constituir un grupo de donantes
de empresarios del sector privado para financiar, ya no un piloto,
sino financiar la instalación y el desarrollo del sistema, la
puesta en funcionamiento. Es un proyecto que recoge, si no
me equivoco, a riesgo de equivocarme, casi un millón de
dólares por el sector privado quien lo dona, lo trabaja
(28:47):
y se va a trabajar casi durante un año en
un proceso ya de implementación del sistema donde hay, digamos,
elementos revolucionarios. Primero, que la Corte Constitucional se reúne para
discutir 24 criterios de clasificación. No es el sistema que clasifica,
sino los magistrados asociados y los magistrados deciden definir cuáles
son 24 criterios que consideras esenciales en clasificación de tutela en
(29:11):
la corte penal sobre los cuales debería operar el sistema.
Todo lo que va a implicar el manejo de bases
de datos. Todo lo que va a implicar el sistema
de recopilación de la información. O sea, hay una serie
de elementos. Entonces, el sistema logra desarrollarse, el sistema, la
Universidad del Rosario, con los aportantes privados, lo entrega a
la Corte Constitucional y se lo dona. Y esto, pues
(29:34):
yo creo que marca un antes y un después en
la Corte.¿ Qué sucede después? Después van a suceder muchas cosas.
Primero que cambia la cultura de la corte, porque la
corte por primera vez en su vida ya no está
contratando abogados, sino comienza a contratar ingenieros. Gracias a ese
proyecto la corte desarrolla lo que se llama una unidad
de científicos informáticos, quienes van a operar el sistema. Finalmente,
(30:00):
el sistema no sé si se aplica como se esperaba
que aplicara, que ayudara en el criterio de selección. Aparentemente,
como les decía, una de las grandes dificultades es el
tema de la cultura jurídica. Y la cultura jurídica colombiana
le tiene miedo a que la tecnología cumpla un rol esencial.
Y creo, puedo estar equivocado porque no he tenido un
(30:23):
conocimiento directo, pero creo que el sistema lo que termina
hoy funcionando es como un sistema guía que termina desarrollando, digamos,
clasificación jurisprudencial y ayuda en temas de tutela, pero no
se le ha delegado completamente el sistema de pretoria, digamos,
el trabajo de selección. Yo no entendería por qué, porque
(30:43):
no olviden ustedes que la tutela, además de ser un
tema jurídico, también es un tema político. Es un tema
de selección política y aquí evidentemente pues ningún sistema de
inteligencia artificial puede sustituir pues la dinámica política. Entonces aquí
hay una discusión, pero es muy valioso, muy valioso porque
el Rosario yo creo que juega un rol tanto como universidad,
(31:04):
como sus egresados, como en el sector privado esencial aportándole
al país y fue además un sistema donde un grupo
de estudiantes de pregrado cumplió un rol esencial.¿ Por qué?
Porque los estudiantes de pregrado de esa época fueron quienes
desarrollaron algo que se llama el proceso de validación del sistema.
Todo lo que decía el sistema, los estudiantes lo iban
(31:24):
validando manualmente para identificar si el sistema estaba haciendo las
cosas como le haría un humano, pero sobre todo evitando
sesgos discriminatorios y evitando violación de derechos humanos. Los estudiantes
iban diciendo, esto puede vulnerar, esto no, y iba entrenando
la máquina. Entonces fue una experiencia maravillosa donde el Rosario
jugó un rol esencial, es algo que el Rosario debe reconocer,
(31:47):
debe reivindicar como propio porque ninguna universidad le ha aportado
hoy a la tecnología y a la justicia tanto como
el Rosario con ese sistema. Doctor
Speaker 3 (31:59):
muchísimas gracias, ha sido supremamente enriquecedora la conversación y nos
despedimos aquí.
Speaker 6 (32:07):
A usted, Laura, Felipe, Mary, muchísimas gracias. Un verdadero placer
Speaker 4 (32:16):
Muchas gracias. Muchas gracias, doctor.
Speaker 7 (32:22):
Esto fue Ciudadanos en Acción. En este podcast nos propusimos
llevar el derecho a las palabras que todos podamos entender.
Nos oímos en un próximo episodio.