The China Mail - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.672535
AFN 70.497632
ALL 85.297857
AMD 383.759759
ANG 1.789623
AOA 917.000241
ARS 1182.244905
AUD 1.531253
AWG 1.8025
AZN 1.699831
BAM 1.688822
BBD 2.018142
BDT 122.249135
BGN 1.691255
BHD 0.377078
BIF 2942
BMD 1
BND 1.27971
BOB 6.921831
BRL 5.492802
BSD 0.999486
BTN 85.958163
BWP 13.345422
BYN 3.271062
BYR 19600
BZD 2.007728
CAD 1.357815
CDF 2877.000014
CHF 0.813696
CLF 0.024399
CLP 936.298835
CNY 7.17975
CNH 7.181295
COP 4100.5
CRC 503.844676
CUC 1
CUP 26.5
CVE 95.624998
CZK 21.458964
DJF 177.719494
DKK 6.45345
DOP 59.249829
DZD 130.201989
EGP 50.217601
ERN 15
ETB 134.296802
EUR 0.86526
FJD 2.24075
FKP 0.735417
GBP 0.73716
GEL 2.72501
GGP 0.735417
GHS 10.274996
GIP 0.735417
GMD 71.501
GNF 8655.999827
GTQ 7.681581
GYD 209.114263
HKD 7.84964
HNL 26.149742
HRK 6.519499
HTG 130.801014
HUF 347.946502
IDR 16271.2
ILS 3.50085
IMP 0.735417
INR 86.086503
IQD 1310
IRR 42109.999907
ISK 124.239985
JEP 0.735417
JMD 159.534737
JOD 0.709017
JPY 144.787051
KES 129.19855
KGS 87.450009
KHR 4019.999763
KMF 425.499483
KPW 900.005137
KRW 1362.389917
KWD 0.30603
KYD 0.832934
KZT 512.565895
LAK 21677.502829
LBP 89600.000374
LKR 300.951131
LRD 199.650259
LSL 17.820162
LTL 2.95274
LVL 0.60489
LYD 5.425002
MAD 9.122495
MDL 17.092157
MGA 4434.999787
MKD 53.255616
MMK 2098.952839
MNT 3582.467491
MOP 8.081774
MRU 39.669888
MUR 45.398309
MVR 15.405013
MWK 1736.000133
MXN 18.936903
MYR 4.241503
MZN 63.949763
NAD 17.819783
NGN 1543.549863
NIO 36.304652
NOK 9.909735
NPR 137.533407
NZD 1.649501
OMR 0.384495
PAB 0.999503
PEN 3.602499
PGK 4.1219
PHP 56.652498
PKR 283.102594
PLN 3.69776
PYG 7973.439139
QAR 3.640499
RON 4.3456
RSD 101.434165
RUB 78.500361
RWF 1425
SAR 3.751806
SBD 8.347391
SCR 14.673619
SDG 600.498295
SEK 9.486805
SGD 1.281225
SHP 0.785843
SLE 22.224972
SLL 20969.503664
SOS 571.497429
SRD 38.740987
STD 20697.981008
SVC 8.745774
SYP 13001.896779
SZL 17.819934
THB 32.501154
TJS 10.125468
TMT 3.5
TND 2.922499
TOP 2.3421
TRY 39.379199
TTD 6.785398
TWD 29.451503
TZS 2589.181949
UAH 41.557366
UGX 3603.362447
UYU 40.870605
UZS 12730.000048
VES 102.167008
VND 26060
VUV 119.91429
WST 2.751779
XAF 566.420137
XAG 0.02744
XAU 0.000295
XCD 2.70255
XDR 0.70726
XOF 564.999778
XPF 103.593826
YER 242.949872
ZAR 17.827017
ZMK 9001.202368
ZMW 24.238499
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

B.Carter--ThChM