Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
Speaker 1 (00:00):
¿Alguna vez le
sonreíste a tu celular para
desbloquearlo o usaste un filtroque te hizo ver fabulosa?
Ese toque de magia tecnológicaviene de tus datos biométricos,
tu face print único.
En este episodio de Intangiblia, exploramos cómo tu rostro
impulsa la innovación, desdeseguridad personalizada hasta
(00:21):
tecnología a prueba de deepfakes, y por qué están cambiando las
reglas sobre quién puede usarlo.
El futuro de tu cara se vebrillante, pero asegurémonos de
que siga siendo tuyo.
Speaker 2 (00:35):
Estás escuchando a
Intangiblia el podcast de
Intangible Law, hablando clarosobre propiedad intelectual.
Démosle la bienvenida a su host, leticia Caminero.
Speaker 3 (00:49):
Bienvenidos a
Intangiblia, donde el derecho se
encuentra con la vida demaneras que puedes ver directo
en el espejo.
Soy Leticia Caminero y hoyvamos a hablar del fascinante
mundo de los datos biométricos.
Cómo impulsan la tecnología deldía a día, inspiran invenciones
(01:10):
revolucionarias y abrenconversaciones claves sobre
privacidad, propiedad yconfianza.
Esto no se trata de una guerra,sino de equilibrio.
Cómo disfrutar los beneficiosdel reconocimiento facial y la
inteligencia artificial sinperder de vista nuestros
(01:34):
derechos?
Speaker 1 (01:34):
Aviso rápido yo soy
una inteligencia artificial.
No tengo cara, ni huellas, niderechos constitucionales
todavía.
Speaker 3 (01:43):
Pero sí, tiene
opiniones, y este episodio viene
lleno de ellas.
Como siempre, nuestro contenidose basa en investigaciones
legales reales, pero nosustituye asesoría jurídica
profesional.
Y recuerden, yo también soy lavoz clonada por IA de Leticia.
Speaker 1 (02:08):
A menos que tu
estrategia legal se base en
sarcasmo y actitud.
En ese caso tengo licenciacompleta en la Corte de la
Opinión Pública.
Speaker 3 (02:18):
Vamos desde el inicio
.
¿Qué son los datos biométricos?
Speaker 1 (02:21):
Todo lo que te hace
tú Geometría facial, huella de
voz, escaneo de iris, tu formade caminar, hasta los latidos de
tu corazón.
Speaker 3 (02:31):
La biometría es la
nueva huella digital única,
intransferible y muy, muyvaliosa, y las empresas la están
usando para crear sistemas deinteligencia artificial que
pueden identificarte,verificarte o incluso imitarte.
Speaker 1 (02:48):
Y ahí empieza el lío
legal, porque, aunque tu rostro
sea tu identidad, para muchastecnológicas es simplemente
datos de entrenamiento en altaresolución.
Speaker 3 (02:57):
Y ahí vienen las
demandas.
Este fue el caso modeloPatel-Wentos-Fow.
Facebook fue el primer granjuicio donde la ley de
privacidad biométrica devolvióel golpe, y con fuerza.
Speaker 1 (03:13):
En los días dorados
del etiquetado automático,
Facebook lanzó su función desugerencias de etiquetado, que
escaneaba fotos de usuarios ysugería nombres basados en
reconocimiento facial.
Pero aquí va el detalle Nuncapidió permiso a los usuarios en
Illinois.
Speaker 3 (03:31):
Ahí entra BIPA.
la Ley de Privacidad deInformación Biométrica de
Illinois Establece que no sepuede recolectar ni almacenar
datos biométricos de nadie,incluyendo un escaneo de la
geometría facial, sinconsentimiento informado.
Speaker 1 (03:49):
Facebook dijo que
todo esto era una maravilla
tecnológica inofensiva, pero eltribunal lo vio de otra manera.
Al etiquetar rostros sin pedirpermiso, violaron VIPA, y a gran
escala.
Speaker 3 (04:02):
En 2020, Facebook
resolvió la demanda colectiva
con un acuerdo de 650 millonesde dólares.
Cada usuario de Illinoisafectado recibió un cheque,
algunos de hasta 400 dólares.
Speaker 1 (04:18):
Y eso desencadenó una
reacción en cadena.
De repente toda empresatecnológica que manejara
biometría en Illinois tuvo quetomarse VIPA en serio.
Facebook, además, tuvo quedesactivar por completo su
función de etiquetado facial.
Speaker 3 (04:34):
La lección no trate
la cara de las personas como si
fuera un simple dato,especialmente en Illinois.
Speaker 1 (04:40):
Si Patel demostró que
violar la privacidad biométrica
sale caro, cotron v WhiteCastle dijo sí, y ese precio se
multiplica Rápido empleados.
Speaker 3 (04:53):
Cada vez que alguien
fichaba o accedía a una
computadora de la empresa, elsistema escaneaba su dedo.
Nada grave, salvo que nunca lesdieron aviso adecuado ni
pidieron consentimiento porescrito.
Speaker 1 (05:14):
Y recuerda esto es
Illinois, tierra de VIPA y VIPA
no juega.
Speaker 3 (05:20):
La pregunta que llegó
a la Corte Suprema de Illinois
fue ¿cada escaneo de huella esuna única infracción o cuenta
cada escaneo como una infracciónseparada?
Speaker 1 (05:32):
Y la Corte respondió
redoble de tambores cada escaneo
cuenta como infracción.
¿Cómo?
Speaker 3 (05:42):
Infracción.
Eso significaba que WhiteCastle podía enfrentar sanciones
por miles de escaneos porempleado.
multiplicado por cientos deempleados a lo largo de años, Su
estimación 17 mil millones dedólares en posibles daños.
Speaker 1 (05:57):
Esa es una cifra que
puede hacer llorar a cualquier
abogado corporativo sobre sucarpeta de cumplimiento.
Speaker 3 (06:03):
La decisión encendió
todas las alarmas en el mundo
empresarial.
Las compañías corrieron arevisar sus políticas
biométricas, temiendo quiebrapor algo tan cotidiano como
fichar la entrada.
Speaker 1 (06:17):
El fallo también
impulsó a los legisladores a
considerar enmendar VIPA paralimitar los daños o reducir la
interpretación de una infracciónpor escaneo.
Speaker 3 (06:29):
Pero hasta que eso
ocurra, cada VIP no autorizado,
al pasar por el lector dehuellas, puede estar sumando a
tu factura legal.
Si hay una empresa que puso laprivacidad biométrica en las
portadas globales, fue ClearviewAI.
El caso Renderos-Finn-Clearviewfue solo el inicio de una
(06:49):
historia mucho más grande.
Speaker 1 (06:52):
Clearview tomó fotos
públicas de internet Piensa en
LinkedIn, facebook, instagram ylas extrajo para construir una
base de datos de reconocimientofacial masiva.
Billones de imágenes Ceroconsentimiento.
Speaker 3 (07:08):
Su propuesta, sube
una cara y obtén coincidencias
al instante desde toda la web.
A la policía le encantó, a losreguladores no tanto.
Speaker 1 (07:18):
En California,
Renderos Bea Clearview cuestionó
todo el modelo de negocio de laempresa.
Los demandantes alegaron quesus datos biométricos fueron
extraídos sin permiso, violandola constitución del estado y
leyes de privacidad.
Speaker 3 (07:33):
Clearview intentó
escudarse en la primera enmienda
diciendo que su base de datosera sólo información pública,
pero el tribunal no se lo compró.
El caso sigue abierto y elresultado podría redefinir hasta
dónde llegan los derechos sobredatos biométricos en California
.
Speaker 1 (07:53):
Mientras tanto, al
otro lado del Atlántico,
clearview enfrentaba un tsunamilegal.
Reino Unido, francia, Italia ylos Países Bajos multaron a la
empresa bajo el ReglamentoGeneral de Protección de Datos
GDPR¿.
La razón En Europa los datosbiométricos son categoría
(08:15):
especial y extraerlos con finescomerciales sin consentimiento
explícito no está permitido.
Speaker 3 (08:22):
La Autoridad de
Protección de Datos de los
Países Bajos impuso una multa de30,5 millones de euros y
prohibió a Clearview procesardatos de residentes holandeses.
Francia, Italia y el ReinoUnido también emitieron órdenes
de eliminación de datos y multasmillonarias ¿Y Clearview cambió
(08:49):
su estrategia Para nada.
Speaker 1 (08:50):
En Estados Unidos
ofreció a los demandantes un
acuerdo muy particular El 23% delas acciones de la empresa.
No dinero, Acciones Como siestuvieran repartiendo parte del
escándalo.
Speaker 3 (09:03):
Los fiscales
generales de 24 estados y de C
presentaron un escrito conjuntooponiéndose.
Dijeron que el acuerdo eraflojo, sin garantías de
eliminación ni límites alrastreo futuro.
Speaker 1 (09:18):
El mensaje quedó
claro Tu rostro no es dominio
público.
Speaker 3 (09:30):
Solo porque una foto
esté online no significa que tu
identidad biométrica esté librepara ser explotada.
Clearview se convirtió en elcaso emblemático de lo que pasa
cuando la innovación ignora laprivacidad, y ahora los
reguladores del mundo estánmirando y multando con mucha más
atención Cuando el lip sync seencuentra con una demanda.
(09:50):
Bienvenidos a INRE TikTok.
Speaker 1 (09:54):
TikTok, la reina de
los videos cortos, terminó en la
Corte Federal por acusacionesde que estaba recolectando datos
biométricos a escondidas Y nohablamos solo de coreografías.
Speaker 3 (10:06):
En concreto, las
demandas alegaban que TikTok
escaneaba rostros y voces de losusuarios, creando lo que la ley
de Illinois llama huellasfaciales y huellas vocales, sin
pedir permiso.
Speaker 1 (10:22):
Y aquí entra otra vez
BIPA.
Residentes de Illinoispresentaron la demanda como
acción colectiva, argumentandoque su información biométrica
fue usada para entrenar filtros,recomendar contenido o ¿quién
sabe qué más.
Speaker 3 (10:38):
TikTok hizo lo que
muchas tecnológicas hacen
resolvió rápido.
En 2022 acordaron pagar 92millones de dólares para cerrar
el caso, sin admitir culpa, porsupuesto.
Speaker 1 (10:50):
Pero ahí no terminó
la historia¿.
La jugada astuta, tiktok tratóde usar ese acuerdo para
protegerse de futuras demandasrelacionadas con nuevas
conductas Y los jueces no setragaron el cuento.
Speaker 3 (11:04):
Cuando aparecieron
nuevos demandantes con reclamos
posteriores a 2021, el tribunalfalló que TikTok no podía
escudarse detrás del acuerdoviejo.
No puedes comprar inmunidad conun cheque del pasado.
Speaker 1 (11:24):
Este caso demostró
dos cosas Primero, que las
demandas por datos biométricosno son exclusivas de sistemas de
identificación o fuerzas delorden.
Las redes sociales tambiénestán en la mira.
Segundo, que si empiezas arecolectar caras y voces, más
vale que seas claro ytransparente o terminarás
escribiendo cheques gordos.
Speaker 3 (11:47):
También vale
mencionar que TikTok no solo
enfrentó a Vipa La FTC y elCongreso también los
investigaron por temas másamplios de privacidad de datos,
pero Vipa le dio a los usuariosuna vía directa para
contraatacar.
Speaker 1 (12:01):
Y eso hizo de TikTok
una de las primeras plataformas
donde no fueron los reguladores,sino los propios usuarios
quienes se llevaron su pedazo dejusticia biométrica.
Speaker 3 (12:13):
Ahora vamos a China,
donde la vigilancia biométrica
es común, pero esta vez fue laciudadanía quien respondió.
Speaker 1 (12:20):
Conozcan a Guo Bing,
un profesor de derecho en
Hangzhou.
Compró un pase anual para unparque de vida silvestre.
Todo bien, Hasta que el parqueexigió reconocimiento facial
para entrar Sin escaneo.
No hay pandas.
Speaker 3 (12:35):
A Guo eso no le gustó
.
Alegó que la exigenciabiométrica del parque violaba
sus derechos como consumidor ysu privacidad, así que hizo lo
que pocos hacen Demandó.
Speaker 1 (12:49):
Y en 2020 ganó.
El tribunal dictaminó queforzar el escaneo facial como
único método de entrada eraexcesivo e innecesario.
El parque tuvo que borrar susdatos biométricos y pagarle una
compensación.
Speaker 3 (13:04):
Puede sonar como un
caso pequeño, pero causó un gran
revuelo.
Fue catalogado como la primerademanda por reconocimiento
facial en China y desató undebate nacional sobre el auge
descontrolado de la vigilanciabiométrica en espacios públicos
y privados.
Speaker 1 (13:24):
El momento fue
perfecto China estaba redactando
su Ley de Protección deInformación Personal, PIPEL, que
entró en vigor en 2021.
Esa ley ahora clasifica losdatos biométricos, como las
huellas faciales, comoinformación personal sensible.
Speaker 3 (13:41):
Eso significa que, al
igual que en Europa, para
recolectar datos faciales enChina ahora se requiere un
propósito legítimo, limitaciónen el uso de datos y, sobre todo
, consentimiento consentimiento.
Speaker 1 (14:00):
El caso de Guo fue
una chispa.
Desde entonces, más ciudadanoshan presentado quejas sobre
reconocimiento facial enedificios residenciales, centros
comerciales e incluso escuelas.
Speaker 3 (14:07):
China puede seguir
liderando en despliegue de
tecnología biométrica, pero estecaso mostró que los derechos
individuales están empezando ahablar.
Speaker 1 (14:19):
Y que, incluso en la
sociedad más vigilada del mundo,
un solo rostro puede marcar unadiferencia legal.
Speaker 3 (14:27):
Antes de que el
reconocimiento facial fuera
tendencia, India ya lidiaba conbiometría a nivel nacional.
Speaker 1 (14:34):
El programa AADHAR
fue y sigue siendo el sistema de
identificación biométrica másgrande del mundo.
Recolecta huellas dactilares,escaneos de iris y fotos
faciales de más de mil millonesde personas, vinculándolas a un
número de identidad único de 12dígitos.
Speaker 3 (14:54):
La idea agilizar
servicios públicos y subsidios,
La polémica, todo lo demás.
Speaker 1 (15:00):
Ahí entra el juez
retirado K S Putaswamy, quien
presentó una demandacuestionando la
constitucionalidad de Hadar.
Su argumento principal que larecolección forzosa de datos
biométricos, especialmente sinsalvaguardas sólidas, violaba el
derecho a la privacidadsalvaguardas sólidas violaba el
(15:21):
derecho a la privacidad.
Speaker 3 (15:22):
Y aquí viene el giro.
Primero, la Corte Suprema deIndia tenía que decidir si la
privacidad era siquiera underecho fundamental según la
Constitución.
Spoiler no estaba expresamenteescrito.
Speaker 1 (15:34):
Pero en una sentencia
histórica en 2017, la Corte
dictó unánimemente que sí, laprivacidad es un derecho
fundamental basado en ladignidad, la autonomía y la
libertad personal.
Speaker 2 (15:49):
Estás escuchando a
Intangiblia el podcast de
Intangible Law, hablando clarosobre propiedad intelectual.
Speaker 3 (15:59):
Luego, en 2018, la
Corte se pronunció directamente
sobre ADAR.
Permitió su uso para programassociales del gobierno, pero
anuló varias expansiones, comosu uso para cuentas bancarias,
números de teléfono o serviciosprivados.
Speaker 1 (16:20):
El tribunal exigió
que el gobierno implementara
mejores medidas de protección dedatos, limitará la retención de
información y diera a losciudadanos más control sobre su
información biométrica.
Speaker 3 (16:32):
Este caso transformó
el panorama legal de India,
forzó un debate público sobre lavigilancia biométrica y allanó
el camino para la ley deprotección de datos personales
digitales de 2023.
Speaker 1 (16:49):
La elección.
no se puede invocar laeficiencia para eliminar el
consentimiento.
Putaswamy dejó claro Losderechos no desaparecen en
nombre de la conveniencia.
Speaker 3 (17:01):
Hora de cambiar de
marcha.
Pasamos de privacidad apatentes.
En este caso, no se trataba desi tu cara fue usada sin permiso
, sino de si Apple la usó condemasiada familiaridad.
Speaker 1 (17:15):
Entra en escena CPC
Patent Technologies, pti-ltd,
una empresa australiana con unarsenal serio de patentes sobre
autenticación biométrica.
Alegaron que las funciones FaceID y Touch ID de Apple
infringían tres de sus patentesregistradas en Estados Unidos.
(17:51):
Esas patentes databan deprincipios de los 2000 y fueron
desarrolladas originalmente poruna empresa de biometría que ya
no existe.
Cpc las adquirió y luego salióde cacería.
Apple era el pez más grande delestanque.
El argumento El uso que haceApple del acceso biométrico para
desbloquear dispositivos, yasea con tu cara o con tu huella,
coincidía con los métodosdescritos en sus patentes.
Speaker 3 (18:04):
Y aquí es donde se
pone interesante CPC no fabrica
productos, ni dispositivos, niapps, solo tiene patentes.
Así que, sí, la prensa empezó allamarlos lo de siempre Trolls
de patentes, empezó a llamarloslo de siempre, trolls de
patentes.
Speaker 1 (18:19):
Apple contraatacó con
solicitudes de revisión inter
partes ante la oficina depatentes de EE UU, buscando
invalidar las patentes.
Speaker 3 (18:41):
Alegaron que la
tecnología era demasiado
obviaétrica.
Se vuelve estándar en teléfonos, bancos y más allá.
Muchas patentes dormidas estánvolviéndose oro puro.
Speaker 1 (18:51):
Aquí no se trata de
mal uso de datos.
Se trata de quién es dueño delmétodo.
Si tu cara es la llave, ¿quiéntiene el derecho sobre la
cerradura?
Speaker 3 (19:01):
Apple no ha hecho
declaraciones públicas sobre el
caso, pero pleitos como este nosrecuerdan una cosa Aunque
desarrolles la tecnología desdecero, siempre puede haber
alguien que diga que llegóprimero en el papel.
¿tú pensabas que los emojisanimados eran solo una ternura?
Pues, según Face to Face,biometrics son patentables y
(19:24):
Apple se pasó de la raya.
Speaker 1 (19:27):
En 2022, face to Face
Biometrics demandó a Apple
alegando que su función Memojiinfringía una patente que cubre
el uso de expresiones facialespara animar un avatar digital
para animar un avatar digitalMemoji para quienes no usan.
Speaker 3 (19:46):
iPhone te permite
controlar una versión
caricaturizada de ti mismousando tus movimientos faciales
reales cejas, sonrisas, guiños,todo el paquete expresivo.
Speaker 1 (19:56):
Face to Face dijo esa
es nuestra invención.
Su patente, concedida en 2021,abarcaba el uso del
reconocimiento facial paracontrolar dinámicamente avatares
en sistemas de mensajería.
Speaker 3 (20:10):
Apple, como era de
esperarse, no se quedó de brazos
cruzados.
Impugnaron la demanda yargumentaron que la patente era
demasiado amplia, intentandomonopolizar una evolución
natural de la comunicación porvideo.
Speaker 1 (20:26):
Los críticos no
tardaron en tachar a Face to
Face de troll de patentes.
¿por qué?
Porque no fabricaban productosni vendían software, solo tenían
la patente y la demanda.
Speaker 3 (20:38):
Es la receta clásica.
Obtén una patente, espera quealguien exitoso haga algo
parecido.
Demanda, repite cuantas vecesquieras.
Speaker 1 (20:48):
Aún así, el caso
plantea una pregunta interesante
Dónde termina la invencióntécnica y empieza la expresión
creativa?
¿Seguir el guiño de alguienpara animar un koala digital es
realmente un proceso innovador?
Speaker 3 (21:01):
para animar un koala
digital es realmente un proceso
innovador, ganen o no, el casodemuestra cómo se está
utilizando o abusando el sistemade patentes para reclamar
territorio en el mundo explosivodel entretenimiento biométrico.
Speaker 1 (21:17):
Porque en el mundo
actual de la propiedad
intelectual, ni tu emoji sesalva de una demanda el mundo
actual de la propiedadintelectual, ni tu emoji se
salva de una demanda.
Speaker 3 (21:27):
Seguimos con Passive
Technologies, también conocido
como el troll de patentes quenunca duerme.
Speaker 1 (21:32):
Passive es una
empresa sin productos, sin
servicios, sin app, solo unbulto de patentes relacionadas
con criptografía y autenticaciónbiométrica, y han estado
ocupados.
Speaker 3 (21:44):
En 2024, pusieron la
mira en Citibank y PNC Bank, dos
instituciones financieras depeso en Estados Unidos.
La razón sus app móvilespermiten iniciar sesión con
reconocimiento facial y huellasdactilares.
Speaker 1 (22:03):
Según PASID, esas
funciones violaban seis de sus
patentes.
Las demandas se centraban enmétodos para verificar usuarios
mediante datos biométricos deforma segura, tecnología que hoy
es estándar en cualquier appbancaria.
Speaker 3 (22:18):
El detalle clave
PASID no inventó el
reconocimiento facial ni labiometría.
Solo compraron patentesantiguas de una empresa de
seguridad que ya cerró y lasconvirtieron en armas legales.
Speaker 1 (22:34):
Y no presentaron la
demanda en cualquier lugar.
Fueron directo al DistritoOeste de Texas, un tribunal que
tiene fama de ser, digamos,amigable con los titulares de
patentes, el caso sigue en curso, pero Citibank y PNC están
contraatacando con fuerza.
Speaker 3 (22:51):
Alegan que las
patentes son demasiado vagas,
que hay antecedentes que lasinvalidan o que simplemente
describen ideas abstractas queno deberían patentarse.
Y ojo.
Speaker 1 (23:02):
PASID no es nuevo en
esto.
En 2018 demandaron a Samsungpor alegatos similares.
Misma jugada esperar que elmercado adopte una función y
demandar.
Speaker 3 (23:14):
Pero aquí está el
dilema Aunque esas patentes no
se sostengan, el costo dedefenderse es altísimo.
Y esa es la verdadera presiónque ejercen los trolls de
patentes.
Speaker 1 (23:28):
También plantea una
pregunta más profunda Puede
considerarse propiedadintelectual de alguien el método
de usar tu propia cara paraentrar a tu propia cuenta?
Speaker 3 (23:38):
Porque si la
respuesta es sí, entonces todos
estamos alquilando nuestrapropia identidad.
Detección de vivacidad suena aciencia ficción, pero es una
capa crítica de seguridad enreconocimiento facial Y en
FaceTech.
Humio se convirtió en unabatalla legal con todas las de
la ley.
Humio se convirtió en unabatalla legal con todas las de
(24:01):
la ley.
Speaker 1 (24:02):
FaceTek es una
empresa estadounidense
especializada en tecnologíaanti-spoofing, es decir
verificar que la cara frente ala cámara no sea una foto, un
video o una máscara 3D.
Su producto estrella, som, usamapeo facial en 3D para
confirmar que hay un ser humanoreal y vivo presente.
Speaker 3 (24:25):
Jumio, por su parte,
es un gigante del sector de
verificación de identidad.
Originalmente usaban latecnología de vivacidad de
Facetech, pero luego cambiaronde proveedor y se asociaron con
iProof.
Speaker 1 (24:40):
Ahí fue cuando
Facetech apretó el botón rojo.
Acusaron a Jumio de seguirusando sus métodos patentados
incluso después de terminar lacolaboración, y presentaron una
demanda por infracción depatentes.
Speaker 3 (24:54):
Y el caso se puso
picante rápido.
Facetec incluso logró quedescalificaran al equipo legal
de Jumio alegando conflicto deinterés, porque esos abogados
habían ayudado a registraralgunas de las patentes
involucradas ¡Auch Eso no fueajedrez legal, fue jaque mate
(25:14):
con reina incluida las patentesque cubrían métodos de detección
3D de vivacidad, cómo elsistema reacciona a movimientos
sutiles del usuario, cambios deluz y profundidad de cámara para
confirmar que la persona enpantalla es real.
Speaker 1 (25:36):
Jumio negó las
acusaciones, pero el caso dejó
claro cuán valiosa se ha vueltoesta tecnología.
En un mundo de deep fakes,fraudes de identidad y medios
sintéticos, tener un sistema quedetecte si eres real vale oro.
Speaker 3 (25:53):
Y al parecer, ese oro
se defiende con uñas y dientes.
El caso sigue abierto, pero hayalgo seguro Estas patentes no
solo determinan quién inventóqué, sino quién tiene el poder
de proteger la puerta de entradaa la identidad digital.
Speaker 1 (26:13):
Cuando toda la
economía depende de verificarte
aacidad.
Facetek contra iProf.
Porque al parecer en el mundodel anti-spoofing nadie se porta
(26:35):
bien iProf, una empresabritánica, se hizo famosa por su
tecnología de detección devivacidad con flash y video.
Básicamente usa patrones de luztemporizados y cuadros de video
para confirmar que la carafrente a la pantalla está viva,
no congelada ni manipulada.
Speaker 3 (26:53):
FaceTek dijo un
momento, eso ya lo patentamos
literalmente.
Alegaron que el sistema deeProof infringía sus métodos
patentados para detectarpresencia viva mediante cámaras
de dispositivos y estímulos deluz reactiva.
Speaker 1 (27:09):
Presentaron demandas
en ambos lados del Atlántico.
Y ojo, esto no era sobrefiltros divertidos.
Estas eran patentes deseguridad del tipo que se usa en
bancos, control fronterizo ysistemas de identidad nacional.
Speaker 3 (27:25):
FaceTech argumentó
que E-PROV copió aspectos clave
de su tecnología patentada y queeso les dio una ventaja desleal
en licitaciones de alto riesgo.
Speaker 1 (27:38):
E-PROV no se quedó
callado.
Alegaron que su sistema fuedesarrollado de forma
independiente, que era diferenteen arquitectura y que, por
supuesto, no infringía nada.
Speaker 3 (27:51):
Este pleito puso bajo
la lupa el mundo fragmentado
pero ferozmente protegido de lapropiedad intelectual biométrica
.
No estamos hablando de patentes, de apps comunes.
Estas son como escáneres deaeropuerto en forma digital
valiosas, reguladas y sensibles.
Speaker 1 (28:15):
Y no olvidemos, esto
no es solo una riña entre
privados.
Ambas empresas vendensoluciones a gobiernos, bancos y
sistemas de salud.
Ganar este pleito abre lapuerta a contratos globales.
Speaker 3 (28:29):
El litigio sigue su
curso, pero, pase lo que pase,
deja algo claro En seguridadbiométrica, más te vale tener
una receta original, porquesiempre habrá alguien listo para
demandarte por la fórmula ¿Y enun mundo donde la detección de
vivacidad decide si tu cara esreal, la ley de propiedad
intelectual es el nuevo filtrode rostro.
(28:51):
Ahora que ya cubrimos el dramajudicial, veamos qué están
haciendo legisladores yreguladores para controlar
específicamente el uso delreconocimiento facial, porque,
aunque la tecnología avanzarápido, las leyes Bueno, algunas
, apenas están empezando aponerse al día.
Speaker 1 (29:14):
Empecemos con Estados
Unidos, donde las leyes
biométricas varían muchísimosegún el estado, Y eso importa
especialmente cuando hablamos derostros.
Speaker 3 (29:23):
Primero, la famosa
VIPA, la Ley de Privacidad de
Información Biométrica deIllinois, aprobada en 2008,.
Exige consentimiento informadoy por escrito antes de
recolectar cualquier datobiométrico, incluyendo geometría
facial, y permite que laspersonas demanden directamente.
(29:44):
Por eso, illinois es la capitalde las demandas millonarias por
reconocimiento facial.
Speaker 1 (29:51):
Luego está Texas, que
aprobó su propia ley de
identificadores biométricos en2009.
También exige consentimiento,pero solo el fiscal general
puede hacerla cumplir.
O sea, nada de demandasprivadas.
Speaker 3 (30:07):
El estado de
Washington siguió en 2017 con
una ley similar.
Requiere notificación y unpropósito claro para recolectar
biometría, pero de nuevo sinderecho privado a demandar.
Speaker 1 (30:22):
En California tenemos
la CCPA y la CPRA.
Juntas definen los datosbiométricos como información
personal sensible.
Los usuarios pueden pedir quese eliminen o limiten, pero solo
pueden demandar si hayfiltración de datos.
Speaker 3 (30:36):
Y no olvidemos, a la
FTC.
En 2023 emitió una declaraciónde política advirtiendo que usar
reconocimiento facial sintransparencia, sin seguridad de
datos y sin consentimientopodría considerarse una práctica
engañosa o injusta bajo la leyfederal de Protección al
(31:02):
Consumidor.
Speaker 1 (31:03):
Más allá de los
estados, algunas ciudades han
ido más lejos Portland, SanFrancisco y Boston han prohibido
el uso de reconocimiento facialpor parte de agencias
gubernamentales, incluyendo lapolicía.
Estas prohibiciones localesreflejan el creciente malestar
con la vigilancia en espaciospúblicos.
Speaker 3 (31:24):
Cruzando el Atlántico
.
El GDPR, y la estrella de laprivacidad en Europa, tiene
reglas muy estrictas sobrebiometría.
Los datos faciales usados paraidentificación se consideran de
categoría especial, lo quesignifica que están prohibidos
(31:46):
salvo que tengas consentimientoexplícito o una razón legal muy
sólida.
Speaker 1 (31:55):
Por eso fue que
Clearview AI fue prohibida o
multada en casi todos los paísesde la UE.
Los reguladores dijeron querecolectar rostros desde redes
sociales violaba el GDPR.
Speaker 3 (32:07):
Y la ley de
inteligencia artificial de la UE
, que se espera entre en vigoren 2025, va más allá Propone
prohibir el reconocimientofacial en tiempo real en
espacios públicos, salvo encasos muy específicos de
aplicación de la ley.
La idea frenar la vigilanciabiométrica antes de que se
(32:31):
vuelva algo normalizado.
Speaker 1 (32:33):
Después del Brexit,
el Reino Unido mantuvo el marco
del GDPR Bajo el UK GDPR y laLey de Protección de Datos de
2018, el reconocimiento facialsigue estando fuertemente
regulado.
Speaker 3 (32:48):
Después del caso
Bridges West, South Wales Police
, los tribunales británicosdejaron claro ni siquiera la
policía puede usarreconocimiento facial en vivo
sin garantías legales, clarasauditorías contra sesgos y
mecanismos de Protección de.
Speaker 1 (33:05):
Información Personal.
PIPL Requiere consentimientoespecífico y separado para
recolectar información personalsensible, incluyendo datos
faciales.
Speaker 3 (33:22):
Lo curioso, aunque el
gobierno usa reconocimiento
facial de forma extensa, lasempresas privadas ahora
enfrentan restricciones serias.
Ya hay fallos en contra denegocios que escanean rostros
(33:58):
sin necesidad justificada nialternativas disponibles
personales.
Speaker 1 (33:59):
Clasifica la
biometría, incluyendo la huella
facial como información sensibley exige consentimiento claro
para procesarla.
Esto se basa en el caso PutasGuami, donde la Corte Suprema
reconoció que la privacidad esun derecho fundamental.
Ese fallo obligó al país areplantearse cómo debe usarse la
biometría, especialmente másallá de los sistemas de
identificación estatal.
Speaker 3 (34:18):
Así que, aunque no
existe un enfoque universal, la
tendencia global es clara Elreconocimiento facial ya no
puede operar en las sombras.
Speaker 1 (34:30):
Desde formularios de
consentimiento hasta decisiones
judiciales, tu rostro, por fin,está recibiendo el respeto legal
que se merece.
Speaker 3 (34:39):
Cerremos con cinco
cosas positivas que nos llevamos
de este episodio Y no, no todosson demandas y tecnicismos
legales.
Speaker 1 (34:49):
Exacto, este episodio
fue una fiesta de huellas
faciales, pero también traebuenas noticias.
Speaker 3 (34:56):
Uno la gente está
prestando atención.
Desde Illinois hasta India,ciudadanos, jueces y reguladores
están haciendo preguntasimportantes sobre el uso del
reconocimiento facial y estántomando acción sobre el uso del
reconocimiento facial y estántomando acción.
Speaker 1 (35:16):
Dos las leyes están
mejorando, ya sea VIPA, el GDPR
o las nuevas leyes de IA.
estamos viendo un cambio haciareglas más claras,
consentimiento más fuerte yconsecuencias reales para los
abusos.
Speaker 3 (35:27):
Tercera, las empresas
tecnológicas se están adaptando
.
Acuerdos legales, cambios depolítica y rediseños muestran
que las plataformas estánempezando a tomar la biometría
en serio.
Speaker 1 (35:42):
Cuarta, la innovación
puede ser ética.
Tecnologías para detectardeepfakes, verificación de
vivacidad y sistemas conprivacidad desde el diseño
prueban que proteger derechos ycrear tecnología cool no son
cosas opuestas.
Speaker 3 (35:58):
Cinco tu cara importa
literalmente y legalmente y más
que nunca tú tienes derecho adecidir cómo se usa.
Speaker 1 (36:07):
Esperamos que este
recorrido por el mundo de la
biometría te haya dejado con máspoder en tus manos y quizá te
haya hecho revisar los permisosde tus apps.
Speaker 3 (36:17):
Tu rostro no es sólo
un dato, es identidad,
creatividad, seguridad y ahoraestá protegido por un marco
legal que crece en todo el mundo.
Speaker 1 (36:28):
Si te gustó este
episodio, compártelo con alguien
que haya usado un filtro deselfie o desbloqueado su celular
con la cara O sea básicamentetodo el mundo.
Speaker 3 (36:39):
Gracias por escuchar
Intangiblia.
Seguimos curiosas, seguimosprotegidas y sí sonríe es tu
derecho.
Speaker 2 (36:49):
Gracias por escuchar
a Intangiblia el podcast de
Intangible Law hablando clarosobre propiedad intelectual.
¿te gustó lo que hablamos hoy?
Por favor, compártelo con tured.
¿quieres aprender más sobre lapropiedad intelectual?
Suscríbete ahora en tureproductor de podcast favorito.
Síguenos en Instagram, facebook, linkedin y Twitter.
(37:09):
Visita nuestro sitio webwwwintangibliacom y Twitter.
Visita nuestro sitio webwwwintangibliacom.
Derecho de autor LeticiaCaminero 2020.
Todos los derechos reservados.
Este podcast se proporcionasolo con fines informativos y no
debe considerarse como unconsejo u opinión legal.