The China Mail - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.6725
AFN 66.498985
ALL 83.849893
AMD 382.479814
ANG 1.789982
AOA 916.99985
ARS 1450.743699
AUD 1.542686
AWG 1.805
AZN 1.69797
BAM 1.69722
BBD 2.01352
BDT 122.007836
BGN 1.693755
BHD 0.376999
BIF 2952.5
BMD 1
BND 1.304378
BOB 6.907594
BRL 5.3502
BSD 0.999679
BTN 88.558647
BWP 13.450775
BYN 3.407125
BYR 19600
BZD 2.010578
CAD 1.41157
CDF 2149.999973
CHF 0.806535
CLF 0.024051
CLP 943.494034
CNY 7.11935
CNH 7.12277
COP 3784.2
CRC 502.442792
CUC 1
CUP 26.5
CVE 95.85046
CZK 21.07815
DJF 177.720484
DKK 6.467935
DOP 64.276658
DZD 130.564976
EGP 47.30068
ERN 15
ETB 153.901624
EUR 0.86619
FJD 2.28425
FKP 0.766404
GBP 0.761145
GEL 2.705037
GGP 0.766404
GHS 10.944994
GIP 0.766404
GMD 73.00005
GNF 8690.000203
GTQ 7.6608
GYD 209.15339
HKD 7.775585
HNL 26.350172
HRK 6.525201
HTG 130.827172
HUF 334.478
IDR 16701.1
ILS 3.272635
IMP 0.766404
INR 88.67335
IQD 1309.660176
IRR 42112.500479
ISK 126.620195
JEP 0.766404
JMD 160.35857
JOD 0.709028
JPY 153.022029
KES 129.150141
KGS 87.449874
KHR 4012.669762
KMF 421.000037
KPW 900.033283
KRW 1448.380373
KWD 0.30688
KYD 0.833167
KZT 526.13127
LAK 21717.265947
LBP 89523.367365
LKR 304.861328
LRD 182.946302
LSL 17.373217
LTL 2.95274
LVL 0.60489
LYD 5.466197
MAD 9.311066
MDL 17.114592
MGA 4500.000361
MKD 53.290545
MMK 2099.044592
MNT 3585.031206
MOP 8.005051
MRU 39.793742
MUR 45.949763
MVR 15.405043
MWK 1737.000135
MXN 18.57178
MYR 4.179894
MZN 63.959808
NAD 17.373217
NGN 1438.170034
NIO 36.754964
NOK 10.198475
NPR 141.693568
NZD 1.774198
OMR 0.384494
PAB 0.999779
PEN 3.375927
PGK 4.208502
PHP 58.92977
PKR 282.679805
PLN 3.681165
PYG 7081.988268
QAR 3.643566
RON 4.404602
RSD 101.521003
RUB 81.249968
RWF 1452.596867
SAR 3.750595
SBD 8.230592
SCR 14.436944
SDG 600.486468
SEK 9.57305
SGD 1.304395
SHP 0.750259
SLE 23.220523
SLL 20969.499529
SOS 571.349231
SRD 38.503495
STD 20697.981008
STN 21.260533
SVC 8.747304
SYP 11056.895466
SZL 17.359159
THB 32.402312
TJS 9.227278
TMT 3.5
TND 2.959939
TOP 2.342104
TRY 42.19092
TTD 6.773954
TWD 30.993002
TZS 2459.807003
UAH 42.066455
UGX 3491.096532
UYU 39.813947
UZS 12025.000204
VES 227.27225
VND 26315
VUV 122.169446
WST 2.82328
XAF 569.234174
XAG 0.020761
XAU 0.000251
XCD 2.70255
XCG 1.801686
XDR 0.70875
XOF 569.500034
XPF 103.489719
YER 238.501488
ZAR 17.37665
ZMK 9001.194974
ZMW 22.61803
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

B.Carter--ThChM