The China Mail - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

USD -
AED 3.672976
AFN 71.055594
ALL 87.061306
AMD 390.195672
ANG 1.80229
AOA 915.999493
ARS 1169.367701
AUD 1.56508
AWG 1.8
AZN 1.700827
BAM 1.726572
BBD 2.025239
BDT 121.869938
BGN 1.72636
BHD 0.378098
BIF 2983.29324
BMD 1
BND 1.310499
BOB 6.930829
BRL 5.695904
BSD 1.003041
BTN 84.76692
BWP 13.730882
BYN 3.282528
BYR 19600
BZD 2.014822
CAD 1.38215
CDF 2873.000221
CHF 0.827805
CLF 0.024692
CLP 947.53985
CNY 7.27135
CNH 7.273995
COP 4232.02
CRC 506.631944
CUC 1
CUP 26.5
CVE 97.341461
CZK 22.009014
DJF 178.617618
DKK 6.59209
DOP 59.032023
DZD 132.647701
EGP 50.860203
ERN 15
ETB 134.606849
EUR 0.883298
FJD 2.25945
FKP 0.749663
GBP 0.750415
GEL 2.745009
GGP 0.749663
GHS 14.293344
GIP 0.749663
GMD 71.501321
GNF 8687.515173
GTQ 7.724462
GYD 210.484964
HKD 7.755911
HNL 26.029114
HRK 6.653801
HTG 131.035244
HUF 357.047006
IDR 16571.5
ILS 3.609765
IMP 0.749663
INR 84.677802
IQD 1313.73847
IRR 42112.493041
ISK 128.710003
JEP 0.749663
JMD 158.78775
JOD 0.709198
JPY 144.481984
KES 129.839932
KGS 87.450577
KHR 4014.741906
KMF 434.496665
KPW 900.011381
KRW 1428.205015
KWD 0.306502
KYD 0.835783
KZT 514.647601
LAK 21686.066272
LBP 89872.479044
LKR 300.259103
LRD 200.606481
LSL 18.677031
LTL 2.95274
LVL 0.60489
LYD 5.475147
MAD 9.296986
MDL 17.217315
MGA 4453.70399
MKD 54.32283
MMK 2099.538189
MNT 3574.392419
MOP 8.012798
MRU 39.690141
MUR 45.080168
MVR 15.409869
MWK 1739.283964
MXN 19.65175
MYR 4.314495
MZN 63.999743
NAD 18.673816
NGN 1606.270082
NIO 36.90936
NOK 10.42005
NPR 135.627425
NZD 1.68806
OMR 0.384991
PAB 1.003032
PEN 3.677638
PGK 4.095253
PHP 55.829501
PKR 281.827034
PLN 3.781388
PYG 8033.511218
QAR 3.655833
RON 4.397398
RSD 103.446754
RUB 81.845205
RWF 1440.892679
SAR 3.750392
SBD 8.361298
SCR 14.280329
SDG 600.494181
SEK 9.71375
SGD 1.308715
SHP 0.785843
SLE 22.790146
SLL 20969.483762
SOS 573.196677
SRD 36.847025
STD 20697.981008
SVC 8.775321
SYP 13002.38052
SZL 18.660534
THB 33.499501
TJS 10.571919
TMT 3.5
TND 2.978994
TOP 2.342101
TRY 38.454597
TTD 6.792886
TWD 32.069922
TZS 2694.082002
UAH 41.609923
UGX 3674.195442
UYU 42.206459
UZS 12970.563573
VES 86.73797
VND 26005
VUV 120.584578
WST 2.773259
XAF 579.073422
XAG 0.031472
XAU 0.000312
XCD 2.70255
XDR 0.720178
XOF 579.08109
XPF 105.265016
YER 244.949951
ZAR 18.635865
ZMK 9001.199855
ZMW 27.90983
ZWL 321.999592
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: © AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

B.Carter--ThChM