The China Mail - El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024

USD -
AED 3.672496
AFN 67.865224
ALL 82.710836
AMD 380.867157
ANG 1.789783
AOA 917.000257
ARS 1432.731702
AUD 1.502822
AWG 1.8025
AZN 1.704511
BAM 1.666823
BBD 2.005437
BDT 121.17235
BGN 1.667765
BHD 0.37703
BIF 2971.393994
BMD 1
BND 1.279664
BOB 6.880183
BRL 5.390198
BSD 0.995683
BTN 88.038351
BWP 13.342935
BYN 3.370577
BYR 19600
BZD 2.00254
CAD 1.384075
CDF 2868.499646
CHF 0.796595
CLF 0.024262
CLP 951.797666
CNY 7.11865
CNH 7.118985
COP 3899
CRC 501.894141
CUC 1
CUP 26.5
CVE 93.972515
CZK 20.76785
DJF 177.311311
DKK 6.365915
DOP 63.459055
DZD 129.733992
EGP 48.213101
ERN 15
ETB 142.96594
EUR 0.85283
FJD 2.237201
FKP 0.737136
GBP 0.737925
GEL 2.690253
GGP 0.737136
GHS 12.147012
GIP 0.737136
GMD 71.503665
GNF 8635.920075
GTQ 7.62757
GYD 208.314513
HKD 7.78195
HNL 26.082473
HRK 6.423501
HTG 130.386797
HUF 334.0225
IDR 16397.9
ILS 3.328345
IMP 0.737136
INR 88.329301
IQD 1304.384881
IRR 42075.000376
ISK 122.120134
JEP 0.737136
JMD 159.423192
JOD 0.708983
JPY 147.411497
KES 128.839559
KGS 87.450329
KHR 3991.119482
KMF 419.493234
KPW 899.95109
KRW 1388.764996
KWD 0.30536
KYD 0.829761
KZT 536.804875
LAK 21590.318319
LBP 89163.651859
LKR 300.507095
LRD 182.712262
LSL 17.474806
LTL 2.95274
LVL 0.60489
LYD 5.387946
MAD 8.9906
MDL 16.543731
MGA 4431.736346
MKD 52.447225
MMK 2099.069477
MNT 3596.841777
MOP 7.989006
MRU 39.568588
MUR 45.479873
MVR 15.405015
MWK 1726.587435
MXN 18.481897
MYR 4.208502
MZN 63.901252
NAD 17.475178
NGN 1501.320522
NIO 36.638528
NOK 9.872885
NPR 140.863592
NZD 1.67629
OMR 0.384502
PAB 0.995679
PEN 3.464721
PGK 4.220377
PHP 57.100502
PKR 282.63277
PLN 3.627995
PYG 7132.508352
QAR 3.62936
RON 4.324902
RSD 99.913007
RUB 84.499254
RWF 1442.785858
SAR 3.751625
SBD 8.223773
SCR 15.062458
SDG 601.500423
SEK 9.32319
SGD 1.281991
SHP 0.785843
SLE 23.385007
SLL 20969.49797
SOS 569.051992
SRD 39.772501
STD 20697.981008
STN 20.880296
SVC 8.71266
SYP 13001.882518
SZL 17.467007
THB 31.670496
TJS 9.44404
TMT 3.5
TND 2.905891
TOP 2.3421
TRY 41.369497
TTD 6.762688
TWD 30.248901
TZS 2459.999934
UAH 41.154467
UGX 3495.061234
UYU 39.850858
UZS 12307.285852
VES 157.53157
VND 26388
VUV 119.422851
WST 2.656919
XAF 559.043938
XAG 0.023766
XAU 0.000274
XCD 2.70255
XCG 1.79452
XDR 0.695271
XOF 559.041556
XPF 101.638869
YER 239.602453
ZAR 17.38429
ZMK 9001.201099
ZMW 23.722472
ZWL 321.999592
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024 / Foto: © AFP/Archivos

El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024

Para reforzar la seguridad de los Juegos Olímpicos de París-2024, las autoridades usarán la videovigilancia con algoritmos, pero aseguran que ninguno de los programas utilizados permitirá el reconocimiento facial, una controvertida práctica ya experimentada en Francia.

Tamaño del texto:

La videovigilancia con algoritmos utiliza un programa asociado a cámaras de vigilancia que analiza secuencias de vídeo para identificar acontecimientos o comportamientos considerados sospechosos o de riesgo, antes de alertar a un operador en tiempo real.

Sin embargo, el reconocimiento facial se centra más en el detalle, ya que permite examinar los rasgos faciales de una persona filmada o fotografiada y comparar el resultado con las imágenes de una base de datos, en tiempo real o más tarde.

Durante el carnaval de Niza en 2019, un "software" de esta última tecnología, desarrollado por ingenieros israelíes, permitió encontrar entre 5.000 personas a casi medio centenar de voluntarios que habían facilitado una foto suya, incluso muy antigua.

Pero esta ciudad de la turística Riviera Francesa, que cuenta con casi 4.500 cámaras de vigilancia de gran precisión, quiere "ir más allá" que una mera experimentación, pero sus deseos chocan con la Cnil, autoridad encargada de velar por el respeto de las libertades en la era digital.

Los franceses ya aceptan "estar vigilados 24 horas al día por [el presidente chino] Xi Jinping o por [su par estadounidense] Joe Biden, según la marca de su celular", defiende el alcalde nizardo, Christian Estrosi, ante las reticencias de la Cnil.

Para el regidor, la Inteligencia Artificial (IA) podría haber ayudado a detectar los movimientos del autor del atentado en el Paseo de los Ingleses en 2016 (86 muertos). "Solo las personas fichadas como peligrosas serían objeto de una vigilancia permanente", asegura.

La tecnología de reconocimiento facial carece de un marco jurídico preciso, pero debe respetar, según la Cnil, "el marco de protección de datos de carácter personal", previsto por dos normas europeas: el reglamento general RGPD y la directiva "Policía-Justicia" de 2016.

Esta última norma permite su uso por las "autoridades competentes" en caso de "absoluta necesidad". La policía la utiliza en investigaciones para consultar la base de antecedentes penales, que contiene millones de expedientes de autores y víctimas.

El sistema de paso rápido en las fronteras exteriores de la Unión Europea la utiliza también en el control biométrico de pasaportes en los lugares previstos para ello y bajo determinadas condiciones.

- "Oportunidad desaprovechada" -

El futuro reglamento europeo sobre Inteligencia Artificial, cuya adopción final se espera en abril, prohíbe "el uso de la identificación biométrica a distancia en tiempo real en los espacios públicos", aunque prevé excepciones.

El reconocimiento facial podría usarse así para "dieciséis delitos", según un vocero de la Comisión Europea: terrorismo, violación, daños graves a las personas, tráfico de seres humanos, asesinato, tráfico de drogas, atracos en banda organizada...

Una "autoridad judicial o administrativa independiente" debería dar su autorización en 24 horas para su uso y los países interesados en poner en marcha esta práctica deben primero aprobar una ley nacional, en base al reglamento.

La oenegé Amnistía Internacional lamentó no obstante una "oportunidad desaprovechada". "Era la ocasión de prohibir sistemas que son peligrosos e incompatibles con los derechos humanos, como el reconocimiento facial", lamentó Katia Roux, miembro en Francia.

En el caso de la videovigilancia por algoritmos, el Parlamento francés aprobó en abril de 2023 una ley que enmarca su experimentación durante los Juegos. Un comité de usuarios y políticos se encargará de su evaluación hasta 2025.

Esta podrá usarse para identificar ocho tipos de situaciones que impliquen un "riesgo de acto de terrorismo o una amenaza grave para la seguridad de las personas": cruzar una zona prohibida, circular en sentido contrario, presencia o uso de un arma, incendio, estampida, persona en el suelo, afluencia excesiva o paquete abandonado.

Amnistía criticó esta experimentación durante París-2024, al considerar que cuando se usan estas tecnologías de vigilancia, "ya no hay marcha atrás". En Londres-2012, se experimentaron y ahora la policía británica la usa para identificar "potenciales delincuentes antes incluso que se cometan crímenes", advirtió.

D.Wang--ThChM