The China Mail - El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024

USD -
AED 3.672501
AFN 66.240603
ALL 83.177072
AMD 382.120536
ANG 1.790055
AOA 916.999657
ARS 1406.024298
AUD 1.5311
AWG 1.8
AZN 1.698478
BAM 1.682293
BBD 2.013023
BDT 122.133531
BGN 1.68091
BHD 0.377076
BIF 2949.904523
BMD 1
BND 1.30133
BOB 6.906191
BRL 5.288986
BSD 0.999415
BTN 88.626159
BWP 14.228698
BYN 3.409228
BYR 19600
BZD 2.010098
CAD 1.40289
CDF 2137.510825
CHF 0.792404
CLF 0.023765
CLP 932.280175
CNY 7.11275
CNH 7.09747
COP 3763.8
CRC 500.954773
CUC 1
CUP 26.5
CVE 94.845086
CZK 20.825999
DJF 177.974849
DKK 6.42812
DOP 64.374065
DZD 130.133521
EGP 47.198502
ERN 15
ETB 154.851967
EUR 0.86078
FJD 2.27535
FKP 0.757017
GBP 0.76063
GEL 2.702208
GGP 0.757017
GHS 10.942163
GIP 0.757017
GMD 72.999677
GNF 8675.532006
GTQ 7.660548
GYD 209.038916
HKD 7.771365
HNL 26.293244
HRK 6.484697
HTG 130.932925
HUF 331.4225
IDR 16723.25
ILS 3.229575
IMP 0.757017
INR 88.691503
IQD 1309.32925
IRR 42112.502587
ISK 126.709866
JEP 0.757017
JMD 160.523667
JOD 0.708999
JPY 154.371502
KES 129.249793
KGS 87.450205
KHR 4008.600301
KMF 425.000207
KPW 900.02171
KRW 1452.589763
KWD 0.30659
KYD 0.832889
KZT 523.891035
LAK 21687.96986
LBP 89501.453663
LKR 306.559549
LRD 181.398269
LSL 17.1411
LTL 2.95274
LVL 0.60489
LYD 5.452575
MAD 9.241164
MDL 16.871097
MGA 4468.509694
MKD 52.917244
MMK 2099.568332
MNT 3578.06314
MOP 8.000774
MRU 39.575771
MUR 45.650112
MVR 15.40503
MWK 1733.042027
MXN 18.34866
MYR 4.132498
MZN 63.960137
NAD 17.1411
NGN 1441.890154
NIO 36.780265
NOK 10.080255
NPR 141.801854
NZD 1.760205
OMR 0.384511
PAB 0.999415
PEN 3.370349
PGK 4.225982
PHP 59.00804
PKR 282.521891
PLN 3.637201
PYG 7042.096028
QAR 3.643135
RON 4.377298
RSD 100.870996
RUB 80.891687
RWF 1452.717232
SAR 3.749984
SBD 8.237372
SCR 13.656496
SDG 601.497242
SEK 9.44298
SGD 1.29873
SHP 0.750259
SLE 23.374976
SLL 20969.498139
SOS 570.19732
SRD 38.589499
STD 20697.981008
STN 21.073819
SVC 8.745205
SYP 11058.869089
SZL 17.134452
THB 32.4305
TJS 9.225
TMT 3.5
TND 2.938809
TOP 2.40776
TRY 42.330005
TTD 6.777226
TWD 30.733982
TZS 2439.999946
UAH 42.001858
UGX 3567.926508
UYU 39.765005
UZS 12032.720329
VES 233.26555
VND 26350
VUV 121.860911
WST 2.809778
XAF 564.142765
XAG 0.019592
XAU 0.000245
XCD 2.70255
XCG 1.801252
XDR 0.704774
XOF 564.230111
XPF 102.582188
YER 238.496025
ZAR 17.112702
ZMK 9001.194587
ZMW 22.46297
ZWL 321.999592
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024
El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024 / Foto: © AFP/Archivos

El reconocimiento facial, línea roja para el uso de la IA en la seguridad de París-2024

Para reforzar la seguridad de los Juegos Olímpicos de París-2024, las autoridades usarán la videovigilancia con algoritmos, pero aseguran que ninguno de los programas utilizados permitirá el reconocimiento facial, una controvertida práctica ya experimentada en Francia.

Tamaño del texto:

La videovigilancia con algoritmos utiliza un programa asociado a cámaras de vigilancia que analiza secuencias de vídeo para identificar acontecimientos o comportamientos considerados sospechosos o de riesgo, antes de alertar a un operador en tiempo real.

Sin embargo, el reconocimiento facial se centra más en el detalle, ya que permite examinar los rasgos faciales de una persona filmada o fotografiada y comparar el resultado con las imágenes de una base de datos, en tiempo real o más tarde.

Durante el carnaval de Niza en 2019, un "software" de esta última tecnología, desarrollado por ingenieros israelíes, permitió encontrar entre 5.000 personas a casi medio centenar de voluntarios que habían facilitado una foto suya, incluso muy antigua.

Pero esta ciudad de la turística Riviera Francesa, que cuenta con casi 4.500 cámaras de vigilancia de gran precisión, quiere "ir más allá" que una mera experimentación, pero sus deseos chocan con la Cnil, autoridad encargada de velar por el respeto de las libertades en la era digital.

Los franceses ya aceptan "estar vigilados 24 horas al día por [el presidente chino] Xi Jinping o por [su par estadounidense] Joe Biden, según la marca de su celular", defiende el alcalde nizardo, Christian Estrosi, ante las reticencias de la Cnil.

Para el regidor, la Inteligencia Artificial (IA) podría haber ayudado a detectar los movimientos del autor del atentado en el Paseo de los Ingleses en 2016 (86 muertos). "Solo las personas fichadas como peligrosas serían objeto de una vigilancia permanente", asegura.

La tecnología de reconocimiento facial carece de un marco jurídico preciso, pero debe respetar, según la Cnil, "el marco de protección de datos de carácter personal", previsto por dos normas europeas: el reglamento general RGPD y la directiva "Policía-Justicia" de 2016.

Esta última norma permite su uso por las "autoridades competentes" en caso de "absoluta necesidad". La policía la utiliza en investigaciones para consultar la base de antecedentes penales, que contiene millones de expedientes de autores y víctimas.

El sistema de paso rápido en las fronteras exteriores de la Unión Europea la utiliza también en el control biométrico de pasaportes en los lugares previstos para ello y bajo determinadas condiciones.

- "Oportunidad desaprovechada" -

El futuro reglamento europeo sobre Inteligencia Artificial, cuya adopción final se espera en abril, prohíbe "el uso de la identificación biométrica a distancia en tiempo real en los espacios públicos", aunque prevé excepciones.

El reconocimiento facial podría usarse así para "dieciséis delitos", según un vocero de la Comisión Europea: terrorismo, violación, daños graves a las personas, tráfico de seres humanos, asesinato, tráfico de drogas, atracos en banda organizada...

Una "autoridad judicial o administrativa independiente" debería dar su autorización en 24 horas para su uso y los países interesados en poner en marcha esta práctica deben primero aprobar una ley nacional, en base al reglamento.

La oenegé Amnistía Internacional lamentó no obstante una "oportunidad desaprovechada". "Era la ocasión de prohibir sistemas que son peligrosos e incompatibles con los derechos humanos, como el reconocimiento facial", lamentó Katia Roux, miembro en Francia.

En el caso de la videovigilancia por algoritmos, el Parlamento francés aprobó en abril de 2023 una ley que enmarca su experimentación durante los Juegos. Un comité de usuarios y políticos se encargará de su evaluación hasta 2025.

Esta podrá usarse para identificar ocho tipos de situaciones que impliquen un "riesgo de acto de terrorismo o una amenaza grave para la seguridad de las personas": cruzar una zona prohibida, circular en sentido contrario, presencia o uso de un arma, incendio, estampida, persona en el suelo, afluencia excesiva o paquete abandonado.

Amnistía criticó esta experimentación durante París-2024, al considerar que cuando se usan estas tecnologías de vigilancia, "ya no hay marcha atrás". En Londres-2012, se experimentaron y ahora la policía británica la usa para identificar "potenciales delincuentes antes incluso que se cometan crímenes", advirtió.

D.Wang--ThChM