All Episodes

August 11, 2025 39 mins

Send us a text

Tu rostro es único, valioso y ahora también está en el centro de batallas legales multimillonarias. En este fascinante recorrido por el mundo de los datos biométricos, descubrirás cómo tu geometría facial se ha convertido en un activo codiciado por empresas tecnológicas globales.

Desde el histórico caso de Facebook que resultó en un acuerdo de $650 millones por usar reconocimiento facial sin permiso, hasta la controversia de Clearview AI que extrajo billones de imágenes de internet sin consentimiento, exploramos los límites legales de quién puede usar tu rostro y para qué. Te sorprenderá saber que cada escaneo facial no autorizado puede costar a las empresas miles de dólares en multas, como descubrió White Castle cuando enfrentó potenciales sanciones de $17 mil millones.

Viajamos desde Illinois hasta China e India para revelar cómo ciudadanos comunes están ganando batallas legales contra gigantes tecnológicos y gobiernos. Conoce al profesor chino que venció a un parque de vida silvestre por exigir reconocimiento facial, y cómo la Corte Suprema de India declaró la privacidad un derecho fundamental frente al mayor sistema biométrico del mundo.

Las patentes sobre tecnología facial están generando otra dimensión de conflictos, con Apple y otras empresas enfrentando demandas millonarias. ¿Puede alguien realmente ser dueño del método para usar tu cara como llave digital? La respuesta está cambiando con cada nuevo fallo judicial.

Lo más importante: la tendencia global avanza hacia mayor protección. Nuevas leyes, desde BIPA hasta el GDPR y la futura Ley de IA europea, están devolviendo el control de tu identidad biométrica a donde pertenece: a ti. Tu rostro no es solo un dato, es tu identidad, y ahora la ley está de tu lado.

Support the show

Mark as Played
Transcript

Episode Transcript

Available transcripts are automatically generated. Complete accuracy is not guaranteed.
Speaker 1 (00:00):
¿Alguna vez le sonreíste a tu celular para
desbloquearlo o usaste un filtroque te hizo ver fabulosa?
Ese toque de magia tecnológicaviene de tus datos biométricos,
tu face print único.
En este episodio de Intangiblia, exploramos cómo tu rostro
impulsa la innovación, desdeseguridad personalizada hasta

(00:21):
tecnología a prueba de deepfakes, y por qué están cambiando las
reglas sobre quién puede usarlo.
El futuro de tu cara se vebrillante, pero asegurémonos de
que siga siendo tuyo.

Speaker 2 (00:35):
Estás escuchando a Intangiblia el podcast de
Intangible Law, hablando clarosobre propiedad intelectual.
Démosle la bienvenida a su host, leticia Caminero.

Speaker 3 (00:49):
Bienvenidos a Intangiblia, donde el derecho se
encuentra con la vida demaneras que puedes ver directo
en el espejo.
Soy Leticia Caminero y hoyvamos a hablar del fascinante
mundo de los datos biométricos.
Cómo impulsan la tecnología deldía a día, inspiran invenciones

(01:10):
revolucionarias y abrenconversaciones claves sobre
privacidad, propiedad yconfianza.
Esto no se trata de una guerra,sino de equilibrio.
Cómo disfrutar los beneficiosdel reconocimiento facial y la
inteligencia artificial sinperder de vista nuestros

(01:34):
derechos?

Speaker 1 (01:34):
Aviso rápido yo soy una inteligencia artificial.
No tengo cara, ni huellas, niderechos constitucionales
todavía.

Speaker 3 (01:43):
Pero sí, tiene opiniones, y este episodio viene
lleno de ellas.
Como siempre, nuestro contenidose basa en investigaciones
legales reales, pero nosustituye asesoría jurídica
profesional.
Y recuerden, yo también soy lavoz clonada por IA de Leticia.

Speaker 1 (02:08):
A menos que tu estrategia legal se base en
sarcasmo y actitud.
En ese caso tengo licenciacompleta en la Corte de la
Opinión Pública.

Speaker 3 (02:18):
Vamos desde el inicio .
¿Qué son los datos biométricos?

Speaker 1 (02:21):
Todo lo que te hace tú Geometría facial, huella de
voz, escaneo de iris, tu formade caminar, hasta los latidos de
tu corazón.

Speaker 3 (02:31):
La biometría es la nueva huella digital única,
intransferible y muy, muyvaliosa, y las empresas la están
usando para crear sistemas deinteligencia artificial que
pueden identificarte,verificarte o incluso imitarte.

Speaker 1 (02:48):
Y ahí empieza el lío legal, porque, aunque tu rostro
sea tu identidad, para muchastecnológicas es simplemente
datos de entrenamiento en altaresolución.

Speaker 3 (02:57):
Y ahí vienen las demandas.
Este fue el caso modeloPatel-Wentos-Fow.
Facebook fue el primer granjuicio donde la ley de
privacidad biométrica devolvióel golpe, y con fuerza.

Speaker 1 (03:13):
En los días dorados del etiquetado automático,
Facebook lanzó su función desugerencias de etiquetado, que
escaneaba fotos de usuarios ysugería nombres basados en
reconocimiento facial.
Pero aquí va el detalle Nuncapidió permiso a los usuarios en
Illinois.

Speaker 3 (03:31):
Ahí entra BIPA.
la Ley de Privacidad deInformación Biométrica de
Illinois Establece que no sepuede recolectar ni almacenar
datos biométricos de nadie,incluyendo un escaneo de la
geometría facial, sinconsentimiento informado.

Speaker 1 (03:49):
Facebook dijo que todo esto era una maravilla
tecnológica inofensiva, pero eltribunal lo vio de otra manera.
Al etiquetar rostros sin pedirpermiso, violaron VIPA, y a gran
escala.

Speaker 3 (04:02):
En 2020, Facebook resolvió la demanda colectiva
con un acuerdo de 650 millonesde dólares.
Cada usuario de Illinoisafectado recibió un cheque,
algunos de hasta 400 dólares.

Speaker 1 (04:18):
Y eso desencadenó una reacción en cadena.
De repente toda empresatecnológica que manejara
biometría en Illinois tuvo quetomarse VIPA en serio.
Facebook, además, tuvo quedesactivar por completo su
función de etiquetado facial.

Speaker 3 (04:34):
La lección no trate la cara de las personas como si
fuera un simple dato,especialmente en Illinois.

Speaker 1 (04:40):
Si Patel demostró que violar la privacidad biométrica
sale caro, cotron v WhiteCastle dijo sí, y ese precio se
multiplica Rápido empleados.

Speaker 3 (04:53):
Cada vez que alguien fichaba o accedía a una
computadora de la empresa, elsistema escaneaba su dedo.
Nada grave, salvo que nunca lesdieron aviso adecuado ni
pidieron consentimiento porescrito.

Speaker 1 (05:14):
Y recuerda esto es Illinois, tierra de VIPA y VIPA
no juega.

Speaker 3 (05:20):
La pregunta que llegó a la Corte Suprema de Illinois
fue ¿cada escaneo de huella esuna única infracción o cuenta
cada escaneo como una infracciónseparada?

Speaker 1 (05:32):
Y la Corte respondió redoble de tambores cada escaneo
cuenta como infracción.
¿Cómo?

Speaker 3 (05:42):
Infracción.
Eso significaba que WhiteCastle podía enfrentar sanciones
por miles de escaneos porempleado.
multiplicado por cientos deempleados a lo largo de años, Su
estimación 17 mil millones dedólares en posibles daños.

Speaker 1 (05:57):
Esa es una cifra que puede hacer llorar a cualquier
abogado corporativo sobre sucarpeta de cumplimiento.

Speaker 3 (06:03):
La decisión encendió todas las alarmas en el mundo
empresarial.
Las compañías corrieron arevisar sus políticas
biométricas, temiendo quiebrapor algo tan cotidiano como
fichar la entrada.

Speaker 1 (06:17):
El fallo también impulsó a los legisladores a
considerar enmendar VIPA paralimitar los daños o reducir la
interpretación de una infracciónpor escaneo.

Speaker 3 (06:29):
Pero hasta que eso ocurra, cada VIP no autorizado,
al pasar por el lector dehuellas, puede estar sumando a
tu factura legal.
Si hay una empresa que puso laprivacidad biométrica en las
portadas globales, fue ClearviewAI.
El caso Renderos-Finn-Clearviewfue solo el inicio de una

(06:49):
historia mucho más grande.

Speaker 1 (06:52):
Clearview tomó fotos públicas de internet Piensa en
LinkedIn, facebook, instagram ylas extrajo para construir una
base de datos de reconocimientofacial masiva.
Billones de imágenes Ceroconsentimiento.

Speaker 3 (07:08):
Su propuesta, sube una cara y obtén coincidencias
al instante desde toda la web.
A la policía le encantó, a losreguladores no tanto.

Speaker 1 (07:18):
En California, Renderos Bea Clearview cuestionó
todo el modelo de negocio de laempresa.
Los demandantes alegaron quesus datos biométricos fueron
extraídos sin permiso, violandola constitución del estado y
leyes de privacidad.

Speaker 3 (07:33):
Clearview intentó escudarse en la primera enmienda
diciendo que su base de datosera sólo información pública,
pero el tribunal no se lo compró.
El caso sigue abierto y elresultado podría redefinir hasta
dónde llegan los derechos sobredatos biométricos en California
.

Speaker 1 (07:53):
Mientras tanto, al otro lado del Atlántico,
clearview enfrentaba un tsunamilegal.
Reino Unido, francia, Italia ylos Países Bajos multaron a la
empresa bajo el ReglamentoGeneral de Protección de Datos
GDPR¿.
La razón En Europa los datosbiométricos son categoría

(08:15):
especial y extraerlos con finescomerciales sin consentimiento
explícito no está permitido.

Speaker 3 (08:22):
La Autoridad de Protección de Datos de los
Países Bajos impuso una multa de30,5 millones de euros y
prohibió a Clearview procesardatos de residentes holandeses.
Francia, Italia y el ReinoUnido también emitieron órdenes
de eliminación de datos y multasmillonarias ¿Y Clearview cambió

(08:49):
su estrategia Para nada.

Speaker 1 (08:50):
En Estados Unidos ofreció a los demandantes un
acuerdo muy particular El 23% delas acciones de la empresa.
No dinero, Acciones Como siestuvieran repartiendo parte del
escándalo.

Speaker 3 (09:03):
Los fiscales generales de 24 estados y de C
presentaron un escrito conjuntooponiéndose.
Dijeron que el acuerdo eraflojo, sin garantías de
eliminación ni límites alrastreo futuro.

Speaker 1 (09:18):
El mensaje quedó claro Tu rostro no es dominio
público.

Speaker 3 (09:30):
Solo porque una foto esté online no significa que tu
identidad biométrica esté librepara ser explotada.
Clearview se convirtió en elcaso emblemático de lo que pasa
cuando la innovación ignora laprivacidad, y ahora los
reguladores del mundo estánmirando y multando con mucha más
atención Cuando el lip sync seencuentra con una demanda.

(09:50):
Bienvenidos a INRE TikTok.

Speaker 1 (09:54):
TikTok, la reina de los videos cortos, terminó en la
Corte Federal por acusacionesde que estaba recolectando datos
biométricos a escondidas Y nohablamos solo de coreografías.

Speaker 3 (10:06):
En concreto, las demandas alegaban que TikTok
escaneaba rostros y voces de losusuarios, creando lo que la ley
de Illinois llama huellasfaciales y huellas vocales, sin
pedir permiso.

Speaker 1 (10:22):
Y aquí entra otra vez BIPA.
Residentes de Illinoispresentaron la demanda como
acción colectiva, argumentandoque su información biométrica
fue usada para entrenar filtros,recomendar contenido o ¿quién
sabe qué más.

Speaker 3 (10:38):
TikTok hizo lo que muchas tecnológicas hacen
resolvió rápido.
En 2022 acordaron pagar 92millones de dólares para cerrar
el caso, sin admitir culpa, porsupuesto.

Speaker 1 (10:50):
Pero ahí no terminó la historia¿.
La jugada astuta, tiktok tratóde usar ese acuerdo para
protegerse de futuras demandasrelacionadas con nuevas
conductas Y los jueces no setragaron el cuento.

Speaker 3 (11:04):
Cuando aparecieron nuevos demandantes con reclamos
posteriores a 2021, el tribunalfalló que TikTok no podía
escudarse detrás del acuerdoviejo.
No puedes comprar inmunidad conun cheque del pasado.

Speaker 1 (11:24):
Este caso demostró dos cosas Primero, que las
demandas por datos biométricosno son exclusivas de sistemas de
identificación o fuerzas delorden.
Las redes sociales tambiénestán en la mira.
Segundo, que si empiezas arecolectar caras y voces, más
vale que seas claro ytransparente o terminarás
escribiendo cheques gordos.

Speaker 3 (11:47):
También vale mencionar que TikTok no solo
enfrentó a Vipa La FTC y elCongreso también los
investigaron por temas másamplios de privacidad de datos,
pero Vipa le dio a los usuariosuna vía directa para
contraatacar.

Speaker 1 (12:01):
Y eso hizo de TikTok una de las primeras plataformas
donde no fueron los reguladores,sino los propios usuarios
quienes se llevaron su pedazo dejusticia biométrica.

Speaker 3 (12:13):
Ahora vamos a China, donde la vigilancia biométrica
es común, pero esta vez fue laciudadanía quien respondió.

Speaker 1 (12:20):
Conozcan a Guo Bing, un profesor de derecho en
Hangzhou.
Compró un pase anual para unparque de vida silvestre.
Todo bien, Hasta que el parqueexigió reconocimiento facial
para entrar Sin escaneo.
No hay pandas.

Speaker 3 (12:35):
A Guo eso no le gustó .
Alegó que la exigenciabiométrica del parque violaba
sus derechos como consumidor ysu privacidad, así que hizo lo
que pocos hacen Demandó.

Speaker 1 (12:49):
Y en 2020 ganó.
El tribunal dictaminó queforzar el escaneo facial como
único método de entrada eraexcesivo e innecesario.
El parque tuvo que borrar susdatos biométricos y pagarle una
compensación.

Speaker 3 (13:04):
Puede sonar como un caso pequeño, pero causó un gran
revuelo.
Fue catalogado como la primerademanda por reconocimiento
facial en China y desató undebate nacional sobre el auge
descontrolado de la vigilanciabiométrica en espacios públicos
y privados.

Speaker 1 (13:24):
El momento fue perfecto China estaba redactando
su Ley de Protección deInformación Personal, PIPEL, que
entró en vigor en 2021.
Esa ley ahora clasifica losdatos biométricos, como las
huellas faciales, comoinformación personal sensible.

Speaker 3 (13:41):
Eso significa que, al igual que en Europa, para
recolectar datos faciales enChina ahora se requiere un
propósito legítimo, limitaciónen el uso de datos y, sobre todo
, consentimiento consentimiento.

Speaker 1 (14:00):
El caso de Guo fue una chispa.
Desde entonces, más ciudadanoshan presentado quejas sobre
reconocimiento facial enedificios residenciales, centros
comerciales e incluso escuelas.

Speaker 3 (14:07):
China puede seguir liderando en despliegue de
tecnología biométrica, pero estecaso mostró que los derechos
individuales están empezando ahablar.

Speaker 1 (14:19):
Y que, incluso en la sociedad más vigilada del mundo,
un solo rostro puede marcar unadiferencia legal.

Speaker 3 (14:27):
Antes de que el reconocimiento facial fuera
tendencia, India ya lidiaba conbiometría a nivel nacional.

Speaker 1 (14:34):
El programa AADHAR fue y sigue siendo el sistema de
identificación biométrica másgrande del mundo.
Recolecta huellas dactilares,escaneos de iris y fotos
faciales de más de mil millonesde personas, vinculándolas a un
número de identidad único de 12dígitos.

Speaker 3 (14:54):
La idea agilizar servicios públicos y subsidios,
La polémica, todo lo demás.

Speaker 1 (15:00):
Ahí entra el juez retirado K S Putaswamy, quien
presentó una demandacuestionando la
constitucionalidad de Hadar.
Su argumento principal que larecolección forzosa de datos
biométricos, especialmente sinsalvaguardas sólidas, violaba el
derecho a la privacidadsalvaguardas sólidas violaba el

(15:21):
derecho a la privacidad.

Speaker 3 (15:22):
Y aquí viene el giro.
Primero, la Corte Suprema deIndia tenía que decidir si la
privacidad era siquiera underecho fundamental según la
Constitución.
Spoiler no estaba expresamenteescrito.

Speaker 1 (15:34):
Pero en una sentencia histórica en 2017, la Corte
dictó unánimemente que sí, laprivacidad es un derecho
fundamental basado en ladignidad, la autonomía y la
libertad personal.

Speaker 2 (15:49):
Estás escuchando a Intangiblia el podcast de
Intangible Law, hablando clarosobre propiedad intelectual.

Speaker 3 (15:59):
Luego, en 2018, la Corte se pronunció directamente
sobre ADAR.
Permitió su uso para programassociales del gobierno, pero
anuló varias expansiones, comosu uso para cuentas bancarias,
números de teléfono o serviciosprivados.

Speaker 1 (16:20):
El tribunal exigió que el gobierno implementara
mejores medidas de protección dedatos, limitará la retención de
información y diera a losciudadanos más control sobre su
información biométrica.

Speaker 3 (16:32):
Este caso transformó el panorama legal de India,
forzó un debate público sobre lavigilancia biométrica y allanó
el camino para la ley deprotección de datos personales
digitales de 2023.

Speaker 1 (16:49):
La elección.
no se puede invocar laeficiencia para eliminar el
consentimiento.
Putaswamy dejó claro Losderechos no desaparecen en
nombre de la conveniencia.

Speaker 3 (17:01):
Hora de cambiar de marcha.
Pasamos de privacidad apatentes.
En este caso, no se trataba desi tu cara fue usada sin permiso
, sino de si Apple la usó condemasiada familiaridad.

Speaker 1 (17:15):
Entra en escena CPC Patent Technologies, pti-ltd,
una empresa australiana con unarsenal serio de patentes sobre
autenticación biométrica.
Alegaron que las funciones FaceID y Touch ID de Apple
infringían tres de sus patentesregistradas en Estados Unidos.

(17:51):
Esas patentes databan deprincipios de los 2000 y fueron
desarrolladas originalmente poruna empresa de biometría que ya
no existe.
Cpc las adquirió y luego salióde cacería.
Apple era el pez más grande delestanque.
El argumento El uso que haceApple del acceso biométrico para
desbloquear dispositivos, yasea con tu cara o con tu huella,
coincidía con los métodosdescritos en sus patentes.

Speaker 3 (18:04):
Y aquí es donde se pone interesante CPC no fabrica
productos, ni dispositivos, niapps, solo tiene patentes.
Así que, sí, la prensa empezó allamarlos lo de siempre Trolls
de patentes, empezó a llamarloslo de siempre, trolls de
patentes.

Speaker 1 (18:19):
Apple contraatacó con solicitudes de revisión inter
partes ante la oficina depatentes de EE UU, buscando
invalidar las patentes.

Speaker 3 (18:41):
Alegaron que la tecnología era demasiado
obviaétrica.
Se vuelve estándar en teléfonos, bancos y más allá.
Muchas patentes dormidas estánvolviéndose oro puro.

Speaker 1 (18:51):
Aquí no se trata de mal uso de datos.
Se trata de quién es dueño delmétodo.
Si tu cara es la llave, ¿quiéntiene el derecho sobre la
cerradura?

Speaker 3 (19:01):
Apple no ha hecho declaraciones públicas sobre el
caso, pero pleitos como este nosrecuerdan una cosa Aunque
desarrolles la tecnología desdecero, siempre puede haber
alguien que diga que llegóprimero en el papel.
¿tú pensabas que los emojisanimados eran solo una ternura?
Pues, según Face to Face,biometrics son patentables y

(19:24):
Apple se pasó de la raya.

Speaker 1 (19:27):
En 2022, face to Face Biometrics demandó a Apple
alegando que su función Memojiinfringía una patente que cubre
el uso de expresiones facialespara animar un avatar digital
para animar un avatar digitalMemoji para quienes no usan.

Speaker 3 (19:46):
iPhone te permite controlar una versión
caricaturizada de ti mismousando tus movimientos faciales
reales cejas, sonrisas, guiños,todo el paquete expresivo.

Speaker 1 (19:56):
Face to Face dijo esa es nuestra invención.
Su patente, concedida en 2021,abarcaba el uso del
reconocimiento facial paracontrolar dinámicamente avatares
en sistemas de mensajería.

Speaker 3 (20:10):
Apple, como era de esperarse, no se quedó de brazos
cruzados.
Impugnaron la demanda yargumentaron que la patente era
demasiado amplia, intentandomonopolizar una evolución
natural de la comunicación porvideo.

Speaker 1 (20:26):
Los críticos no tardaron en tachar a Face to
Face de troll de patentes.
¿por qué?
Porque no fabricaban productosni vendían software, solo tenían
la patente y la demanda.

Speaker 3 (20:38):
Es la receta clásica.
Obtén una patente, espera quealguien exitoso haga algo
parecido.
Demanda, repite cuantas vecesquieras.

Speaker 1 (20:48):
Aún así, el caso plantea una pregunta interesante
Dónde termina la invencióntécnica y empieza la expresión
creativa?
¿Seguir el guiño de alguienpara animar un koala digital es
realmente un proceso innovador?

Speaker 3 (21:01):
para animar un koala digital es realmente un proceso
innovador, ganen o no, el casodemuestra cómo se está
utilizando o abusando el sistemade patentes para reclamar
territorio en el mundo explosivodel entretenimiento biométrico.

Speaker 1 (21:17):
Porque en el mundo actual de la propiedad
intelectual, ni tu emoji sesalva de una demanda el mundo
actual de la propiedadintelectual, ni tu emoji se
salva de una demanda.

Speaker 3 (21:27):
Seguimos con Passive Technologies, también conocido
como el troll de patentes quenunca duerme.

Speaker 1 (21:32):
Passive es una empresa sin productos, sin
servicios, sin app, solo unbulto de patentes relacionadas
con criptografía y autenticaciónbiométrica, y han estado
ocupados.

Speaker 3 (21:44):
En 2024, pusieron la mira en Citibank y PNC Bank, dos
instituciones financieras depeso en Estados Unidos.
La razón sus app móvilespermiten iniciar sesión con
reconocimiento facial y huellasdactilares.

Speaker 1 (22:03):
Según PASID, esas funciones violaban seis de sus
patentes.
Las demandas se centraban enmétodos para verificar usuarios
mediante datos biométricos deforma segura, tecnología que hoy
es estándar en cualquier appbancaria.

Speaker 3 (22:18):
El detalle clave PASID no inventó el
reconocimiento facial ni labiometría.
Solo compraron patentesantiguas de una empresa de
seguridad que ya cerró y lasconvirtieron en armas legales.

Speaker 1 (22:34):
Y no presentaron la demanda en cualquier lugar.
Fueron directo al DistritoOeste de Texas, un tribunal que
tiene fama de ser, digamos,amigable con los titulares de
patentes, el caso sigue en curso, pero Citibank y PNC están
contraatacando con fuerza.

Speaker 3 (22:51):
Alegan que las patentes son demasiado vagas,
que hay antecedentes que lasinvalidan o que simplemente
describen ideas abstractas queno deberían patentarse.
Y ojo.

Speaker 1 (23:02):
PASID no es nuevo en esto.
En 2018 demandaron a Samsungpor alegatos similares.
Misma jugada esperar que elmercado adopte una función y
demandar.

Speaker 3 (23:14):
Pero aquí está el dilema Aunque esas patentes no
se sostengan, el costo dedefenderse es altísimo.
Y esa es la verdadera presiónque ejercen los trolls de
patentes.

Speaker 1 (23:28):
También plantea una pregunta más profunda Puede
considerarse propiedadintelectual de alguien el método
de usar tu propia cara paraentrar a tu propia cuenta?

Speaker 3 (23:38):
Porque si la respuesta es sí, entonces todos
estamos alquilando nuestrapropia identidad.
Detección de vivacidad suena aciencia ficción, pero es una
capa crítica de seguridad enreconocimiento facial Y en
FaceTech.
Humio se convirtió en unabatalla legal con todas las de
la ley.
Humio se convirtió en unabatalla legal con todas las de

(24:01):
la ley.

Speaker 1 (24:02):
FaceTek es una empresa estadounidense
especializada en tecnologíaanti-spoofing, es decir
verificar que la cara frente ala cámara no sea una foto, un
video o una máscara 3D.
Su producto estrella, som, usamapeo facial en 3D para
confirmar que hay un ser humanoreal y vivo presente.

Speaker 3 (24:25):
Jumio, por su parte, es un gigante del sector de
verificación de identidad.
Originalmente usaban latecnología de vivacidad de
Facetech, pero luego cambiaronde proveedor y se asociaron con
iProof.

Speaker 1 (24:40):
Ahí fue cuando Facetech apretó el botón rojo.
Acusaron a Jumio de seguirusando sus métodos patentados
incluso después de terminar lacolaboración, y presentaron una
demanda por infracción depatentes.

Speaker 3 (24:54):
Y el caso se puso picante rápido.
Facetec incluso logró quedescalificaran al equipo legal
de Jumio alegando conflicto deinterés, porque esos abogados
habían ayudado a registraralgunas de las patentes
involucradas ¡Auch Eso no fueajedrez legal, fue jaque mate

(25:14):
con reina incluida las patentesque cubrían métodos de detección
3D de vivacidad, cómo elsistema reacciona a movimientos
sutiles del usuario, cambios deluz y profundidad de cámara para
confirmar que la persona enpantalla es real.

Speaker 1 (25:36):
Jumio negó las acusaciones, pero el caso dejó
claro cuán valiosa se ha vueltoesta tecnología.
En un mundo de deep fakes,fraudes de identidad y medios
sintéticos, tener un sistema quedetecte si eres real vale oro.

Speaker 3 (25:53):
Y al parecer, ese oro se defiende con uñas y dientes.
El caso sigue abierto, pero hayalgo seguro Estas patentes no
solo determinan quién inventóqué, sino quién tiene el poder
de proteger la puerta de entradaa la identidad digital.

Speaker 1 (26:13):
Cuando toda la economía depende de verificarte
aacidad.
Facetek contra iProf.
Porque al parecer en el mundodel anti-spoofing nadie se porta

(26:35):
bien iProf, una empresabritánica, se hizo famosa por su
tecnología de detección devivacidad con flash y video.
Básicamente usa patrones de luztemporizados y cuadros de video
para confirmar que la carafrente a la pantalla está viva,
no congelada ni manipulada.

Speaker 3 (26:53):
FaceTek dijo un momento, eso ya lo patentamos
literalmente.
Alegaron que el sistema deeProof infringía sus métodos
patentados para detectarpresencia viva mediante cámaras
de dispositivos y estímulos deluz reactiva.

Speaker 1 (27:09):
Presentaron demandas en ambos lados del Atlántico.
Y ojo, esto no era sobrefiltros divertidos.
Estas eran patentes deseguridad del tipo que se usa en
bancos, control fronterizo ysistemas de identidad nacional.

Speaker 3 (27:25):
FaceTech argumentó que E-PROV copió aspectos clave
de su tecnología patentada y queeso les dio una ventaja desleal
en licitaciones de alto riesgo.

Speaker 1 (27:38):
E-PROV no se quedó callado.
Alegaron que su sistema fuedesarrollado de forma
independiente, que era diferenteen arquitectura y que, por
supuesto, no infringía nada.

Speaker 3 (27:51):
Este pleito puso bajo la lupa el mundo fragmentado
pero ferozmente protegido de lapropiedad intelectual biométrica
.
No estamos hablando de patentes, de apps comunes.
Estas son como escáneres deaeropuerto en forma digital
valiosas, reguladas y sensibles.

Speaker 1 (28:15):
Y no olvidemos, esto no es solo una riña entre
privados.
Ambas empresas vendensoluciones a gobiernos, bancos y
sistemas de salud.
Ganar este pleito abre lapuerta a contratos globales.

Speaker 3 (28:29):
El litigio sigue su curso, pero, pase lo que pase,
deja algo claro En seguridadbiométrica, más te vale tener
una receta original, porquesiempre habrá alguien listo para
demandarte por la fórmula ¿Y enun mundo donde la detección de
vivacidad decide si tu cara esreal, la ley de propiedad
intelectual es el nuevo filtrode rostro.

(28:51):
Ahora que ya cubrimos el dramajudicial, veamos qué están
haciendo legisladores yreguladores para controlar
específicamente el uso delreconocimiento facial, porque,
aunque la tecnología avanzarápido, las leyes Bueno, algunas
, apenas están empezando aponerse al día.

Speaker 1 (29:14):
Empecemos con Estados Unidos, donde las leyes
biométricas varían muchísimosegún el estado, Y eso importa
especialmente cuando hablamos derostros.

Speaker 3 (29:23):
Primero, la famosa VIPA, la Ley de Privacidad de
Información Biométrica deIllinois, aprobada en 2008,.
Exige consentimiento informadoy por escrito antes de
recolectar cualquier datobiométrico, incluyendo geometría
facial, y permite que laspersonas demanden directamente.

(29:44):
Por eso, illinois es la capitalde las demandas millonarias por
reconocimiento facial.

Speaker 1 (29:51):
Luego está Texas, que aprobó su propia ley de
identificadores biométricos en2009.
También exige consentimiento,pero solo el fiscal general
puede hacerla cumplir.
O sea, nada de demandasprivadas.

Speaker 3 (30:07):
El estado de Washington siguió en 2017 con
una ley similar.
Requiere notificación y unpropósito claro para recolectar
biometría, pero de nuevo sinderecho privado a demandar.

Speaker 1 (30:22):
En California tenemos la CCPA y la CPRA.
Juntas definen los datosbiométricos como información
personal sensible.
Los usuarios pueden pedir quese eliminen o limiten, pero solo
pueden demandar si hayfiltración de datos.

Speaker 3 (30:36):
Y no olvidemos, a la FTC.
En 2023 emitió una declaraciónde política advirtiendo que usar
reconocimiento facial sintransparencia, sin seguridad de
datos y sin consentimientopodría considerarse una práctica
engañosa o injusta bajo la leyfederal de Protección al

(31:02):
Consumidor.

Speaker 1 (31:03):
Más allá de los estados, algunas ciudades han
ido más lejos Portland, SanFrancisco y Boston han prohibido
el uso de reconocimiento facialpor parte de agencias
gubernamentales, incluyendo lapolicía.
Estas prohibiciones localesreflejan el creciente malestar
con la vigilancia en espaciospúblicos.

Speaker 3 (31:24):
Cruzando el Atlántico .
El GDPR, y la estrella de laprivacidad en Europa, tiene
reglas muy estrictas sobrebiometría.
Los datos faciales usados paraidentificación se consideran de
categoría especial, lo quesignifica que están prohibidos

(31:46):
salvo que tengas consentimientoexplícito o una razón legal muy
sólida.

Speaker 1 (31:55):
Por eso fue que Clearview AI fue prohibida o
multada en casi todos los paísesde la UE.
Los reguladores dijeron querecolectar rostros desde redes
sociales violaba el GDPR.

Speaker 3 (32:07):
Y la ley de inteligencia artificial de la UE
, que se espera entre en vigoren 2025, va más allá Propone
prohibir el reconocimientofacial en tiempo real en
espacios públicos, salvo encasos muy específicos de
aplicación de la ley.
La idea frenar la vigilanciabiométrica antes de que se

(32:31):
vuelva algo normalizado.

Speaker 1 (32:33):
Después del Brexit, el Reino Unido mantuvo el marco
del GDPR Bajo el UK GDPR y laLey de Protección de Datos de
2018, el reconocimiento facialsigue estando fuertemente
regulado.

Speaker 3 (32:48):
Después del caso Bridges West, South Wales Police
, los tribunales británicosdejaron claro ni siquiera la
policía puede usarreconocimiento facial en vivo
sin garantías legales, clarasauditorías contra sesgos y
mecanismos de Protección de.

Speaker 1 (33:05):
Información Personal.
PIPL Requiere consentimientoespecífico y separado para
recolectar información personalsensible, incluyendo datos
faciales.

Speaker 3 (33:22):
Lo curioso, aunque el gobierno usa reconocimiento
facial de forma extensa, lasempresas privadas ahora
enfrentan restricciones serias.
Ya hay fallos en contra denegocios que escanean rostros

(33:58):
sin necesidad justificada nialternativas disponibles
personales.

Speaker 1 (33:59):
Clasifica la biometría, incluyendo la huella
facial como información sensibley exige consentimiento claro
para procesarla.
Esto se basa en el caso PutasGuami, donde la Corte Suprema
reconoció que la privacidad esun derecho fundamental.
Ese fallo obligó al país areplantearse cómo debe usarse la
biometría, especialmente másallá de los sistemas de
identificación estatal.

Speaker 3 (34:18):
Así que, aunque no existe un enfoque universal, la
tendencia global es clara Elreconocimiento facial ya no
puede operar en las sombras.

Speaker 1 (34:30):
Desde formularios de consentimiento hasta decisiones
judiciales, tu rostro, por fin,está recibiendo el respeto legal
que se merece.

Speaker 3 (34:39):
Cerremos con cinco cosas positivas que nos llevamos
de este episodio Y no, no todosson demandas y tecnicismos
legales.

Speaker 1 (34:49):
Exacto, este episodio fue una fiesta de huellas
faciales, pero también traebuenas noticias.

Speaker 3 (34:56):
Uno la gente está prestando atención.
Desde Illinois hasta India,ciudadanos, jueces y reguladores
están haciendo preguntasimportantes sobre el uso del
reconocimiento facial y estántomando acción sobre el uso del
reconocimiento facial y estántomando acción.

Speaker 1 (35:16):
Dos las leyes están mejorando, ya sea VIPA, el GDPR
o las nuevas leyes de IA.
estamos viendo un cambio haciareglas más claras,
consentimiento más fuerte yconsecuencias reales para los
abusos.

Speaker 3 (35:27):
Tercera, las empresas tecnológicas se están adaptando
.
Acuerdos legales, cambios depolítica y rediseños muestran
que las plataformas estánempezando a tomar la biometría
en serio.

Speaker 1 (35:42):
Cuarta, la innovación puede ser ética.
Tecnologías para detectardeepfakes, verificación de
vivacidad y sistemas conprivacidad desde el diseño
prueban que proteger derechos ycrear tecnología cool no son
cosas opuestas.

Speaker 3 (35:58):
Cinco tu cara importa literalmente y legalmente y más
que nunca tú tienes derecho adecidir cómo se usa.

Speaker 1 (36:07):
Esperamos que este recorrido por el mundo de la
biometría te haya dejado con máspoder en tus manos y quizá te
haya hecho revisar los permisosde tus apps.

Speaker 3 (36:17):
Tu rostro no es sólo un dato, es identidad,
creatividad, seguridad y ahoraestá protegido por un marco
legal que crece en todo el mundo.

Speaker 1 (36:28):
Si te gustó este episodio, compártelo con alguien
que haya usado un filtro deselfie o desbloqueado su celular
con la cara O sea básicamentetodo el mundo.

Speaker 3 (36:39):
Gracias por escuchar Intangiblia.
Seguimos curiosas, seguimosprotegidas y sí sonríe es tu
derecho.

Speaker 2 (36:49):
Gracias por escuchar a Intangiblia el podcast de
Intangible Law hablando clarosobre propiedad intelectual.
¿te gustó lo que hablamos hoy?
Por favor, compártelo con tured.
¿quieres aprender más sobre lapropiedad intelectual?
Suscríbete ahora en tureproductor de podcast favorito.
Síguenos en Instagram, facebook, linkedin y Twitter.

(37:09):
Visita nuestro sitio webwwwintangibliacom y Twitter.
Visita nuestro sitio webwwwintangibliacom.
Derecho de autor LeticiaCaminero 2020.
Todos los derechos reservados.
Este podcast se proporcionasolo con fines informativos y no
debe considerarse como unconsejo u opinión legal.
Advertise With Us

Popular Podcasts

Stuff You Should Know
New Heights with Jason & Travis Kelce

New Heights with Jason & Travis Kelce

Football’s funniest family duo — Jason Kelce of the Philadelphia Eagles and Travis Kelce of the Kansas City Chiefs — team up to provide next-level access to life in the league as it unfolds. The two brothers and Super Bowl champions drop weekly insights about the weekly slate of games and share their INSIDE perspectives on trending NFL news and sports headlines. They also endlessly rag on each other as brothers do, chat the latest in pop culture and welcome some very popular and well-known friends to chat with them. Check out new episodes every Wednesday. Follow New Heights on the Wondery App, YouTube or wherever you get your podcasts. You can listen to new episodes early and ad-free, and get exclusive content on Wondery+. Join Wondery+ in the Wondery App, Apple Podcasts or Spotify. And join our new membership for a unique fan experience by going to the New Heights YouTube channel now!

24/7 News: The Latest

24/7 News: The Latest

The latest news in 4 minutes updated every hour, every day.

Music, radio and podcasts, all free. Listen online or download the iHeart App.

Connect

© 2025 iHeartMedia, Inc.