The China Mail - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.673018
AFN 69.477334
ALL 84.199361
AMD 383.680003
ANG 1.789699
AOA 917.000177
ARS 1331.494299
AUD 1.537196
AWG 1.8025
AZN 1.724696
BAM 1.684894
BBD 2.018979
BDT 121.693509
BGN 1.679695
BHD 0.377038
BIF 2948.5
BMD 1
BND 1.286457
BOB 6.924982
BRL 5.4648
BSD 0.999927
BTN 87.794309
BWP 13.488635
BYN 3.291393
BYR 19600
BZD 2.008606
CAD 1.373865
CDF 2889.999559
CHF 0.806665
CLF 0.024847
CLP 974.769536
CNY 7.18315
CNH 7.184275
COP 4045.48
CRC 506.308394
CUC 1
CUP 26.5
CVE 95.250244
CZK 21.073057
DJF 177.719636
DKK 6.40351
DOP 61.000311
DZD 130.33082
EGP 48.445602
ERN 15
ETB 138.649811
EUR 0.858053
FJD 2.255901
FKP 0.751467
GBP 0.74847
GEL 2.698647
GGP 0.751467
GHS 10.549741
GIP 0.751467
GMD 72.500185
GNF 8674.999667
GTQ 7.673256
GYD 209.215871
HKD 7.849965
HNL 26.349558
HRK 6.4669
HTG 131.221544
HUF 341.476009
IDR 16344.8
ILS 3.43044
IMP 0.751467
INR 87.696899
IQD 1310
IRR 42125.000284
ISK 122.529785
JEP 0.751467
JMD 159.805649
JOD 0.70897
JPY 147.193498
KES 129.502507
KGS 87.449678
KHR 4009.999715
KMF 422.499774
KPW 899.94784
KRW 1385.094954
KWD 0.30549
KYD 0.833337
KZT 537.310733
LAK 21599.999778
LBP 89550.000016
LKR 300.839518
LRD 201.000268
LSL 17.897237
LTL 2.95274
LVL 0.60489
LYD 5.434983
MAD 9.088749
MDL 16.984635
MGA 4435.000433
MKD 53.007232
MMK 2099.311056
MNT 3591.43546
MOP 8.085189
MRU 39.903721
MUR 45.701579
MVR 15.405751
MWK 1736.498748
MXN 18.60135
MYR 4.230116
MZN 63.95963
NAD 17.908373
NGN 1528.498806
NIO 36.750276
NOK 10.1853
NPR 140.468735
NZD 1.683899
OMR 0.384505
PAB 0.999978
PEN 3.554993
PGK 4.1355
PHP 57.303503
PKR 282.549814
PLN 3.666535
PYG 7489.759085
QAR 3.640502
RON 4.355906
RSD 100.51701
RUB 79.995881
RWF 1441.5
SAR 3.752232
SBD 8.244163
SCR 14.144092
SDG 600.499173
SEK 9.609145
SGD 1.284849
SHP 0.785843
SLE 23.095506
SLL 20969.503947
SOS 571.476658
SRD 37.036034
STD 20697.981008
STN 21.35
SVC 8.749252
SYP 13001.372255
SZL 17.889597
THB 32.336501
TJS 9.350099
TMT 3.51
TND 2.898993
TOP 2.342103
TRY 40.65595
TTD 6.779208
TWD 29.909031
TZS 2480.000588
UAH 41.60133
UGX 3569.997889
UYU 40.128017
UZS 12550.000169
VES 126.950815
VND 26225
VUV 119.124121
WST 2.771506
XAF 565.126968
XAG 0.026413
XAU 0.000297
XCD 2.70255
XCG 1.802143
XDR 0.704914
XOF 567.4995
XPF 103.42497
YER 240.349919
ZAR 17.760125
ZMK 9001.199968
ZMW 23.025264
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

B.Carter--ThChM