{"id":311978,"date":"2023-08-31T00:02:00","date_gmt":"2023-08-31T03:02:00","guid":{"rendered":"https:\/\/www.notibras.com\/site\/?p=311978"},"modified":"2023-08-31T09:55:05","modified_gmt":"2023-08-31T12:55:05","slug":"sistema-de-reconhecimento-facial-ja-esta-em-todo-o-pais","status":"publish","type":"post","link":"https:\/\/www.notibras.com\/site\/sistema-de-reconhecimento-facial-ja-esta-em-todo-o-pais\/","title":{"rendered":"Sistema de reconhecimento facial j\u00e1 est\u00e1 em todo o pa\u00eds"},"content":{"rendered":"<p>O Brasil tem, pelo menos 195 projetos que usam o reconhecimento facial para a\u00e7\u00f5es de seguran\u00e7a p\u00fablica, segundo a pesquisa Pan\u00f3ptico do Centro de Estudos de Seguran\u00e7a e Cidadania (CESeC). Segundo o coordenador do centro, Pablo Nunes, foram identificadas iniciativas do tipo em todos os estados brasileiros.<\/p>\n<p>Entre 2019 e 2022, o estudo identificou 509 casos de pessoas presas usando esse tipo de tecnologia. No entanto, Nunes ressalva que \u201co n\u00famero de pris\u00f5es com essa tecnologia \u00e9 muito maior do que n\u00f3s conseguimos monitorar\u201d.<\/p>\n<p>Os dados levantados em 2019 pelo grupo mostram que das 184 pris\u00f5es identificadas naquele ano, mais de 90% eram de pessoas negras. \u201cA gente viu um aprofundamento do perfil nos presos por reconhecimento facial, focado em jovens negros presos por crimes sem viol\u00eancia, principalmente pela Lei de Drogas, que tem sido um grande instrumento de incha\u00e7o da nossa popula\u00e7\u00e3o carcer\u00e1ria\u201d, diz Nunes.<\/p>\n<p>A distribui\u00e7\u00e3o dos projetos de reconhecimento facial pelo pa\u00eds n\u00e3o responde, segundo Nunes, a nenhuma l\u00f3gica de estat\u00edsticas de criminalidade ou de concentra\u00e7\u00e3o populacional. De acordo com o levantamento, Goi\u00e1s \u00e9 o estado com maior n\u00famero de projetos, com 45 iniciativas, seguido pelo Amazonas, com 21 projetos, Paran\u00e1 (14) e S\u00e3o Paulo (12).<\/p>\n<p>Na capital paulista, foi assinado em agosto o contrato do Smart Sampa, projeto que prev\u00ea a instala\u00e7\u00e3o de 20 mil c\u00e2meras de seguran\u00e7a programadas para fazer reconhecimento facial at\u00e9 o final de 2024. O sistema custar\u00e1 R$ 9,8 milh\u00f5es por m\u00eas aos cofres p\u00fablicos.<\/p>\n<p>Os riscos de identifica\u00e7\u00f5es erradas s\u00e3o destacados no relat\u00f3rio Mais C\u00e2meras, Mais Seguran\u00e7a?, lan\u00e7ado pelo Instituto Igarap\u00e9 em 2020, analisando as experi\u00eancias de uso de c\u00e2meras associadas \u00e0 intelig\u00eancia artificial em Salvador (BA), Campinas (SP) e no Rio de Janeiro. O problema pode ocorrer, segundo o estudo, caso a programa\u00e7\u00e3o n\u00e3o seja feita a partir de uma base de dados diversa de rostos.<\/p>\n<p>Em outra pesquisa, lan\u00e7ada em 2018, as pesquisadoras Joy Buolamwini, do Instituto de Tecnologia do Massachusetts (MIT), e Timnit Gebru, \u00e0 \u00e9poca na Microsoft, identificaram que as tecnologias de reconhecimento facial chegavam a ter um \u00edndice de erro de 34,7% ao tentar identificar mulheres de pele escura. Entre os homens de pele clara, o percentual, segundo o estudo, era de 0,8%.<\/p>\n<p>Para o coordenador do centro de estudos, a forma como esse tipo de tecnologia est\u00e1 sendo implementada no Brasil demonstra os riscos de discrimina\u00e7\u00e3o racial sist\u00eamica contra popula\u00e7\u00f5es menos protegidas socialmente, especialmente as pessoas negras. \u201cEntender a ado\u00e7\u00e3o desses algor\u00edtimos de reconhecimento facial na seguran\u00e7a p\u00fablica no Brasil ilumina bastante os perigos e os potenciais de viola\u00e7\u00e3o que essas tecnologias podem ter quando utilizadas para persecu\u00e7\u00e3o penal\u201d, enfatiza.<\/p>\n<p><strong>Racismo algor\u00edtimico<\/strong><br \/>\nAl\u00e9m disso, na vis\u00e3o do centro de estudos, h\u00e1 a invers\u00e3o de prioridades no uso dos recursos p\u00fablicos que, como s\u00e3o limitados, acabam faltando em outras \u00e1reas, novamente atingindo a qualidade de vida das popula\u00e7\u00f5es menos favorecidas. \u201cEsse dinheiro que poderia estar sendo utilizado para ado\u00e7\u00e3o de saneamento b\u00e1sico em cidades que n\u00e3o o possuem tem sido utilizado para c\u00e2meras de reconhecimento facial, uma tecnologia cara, enviesada e racista\u201d, analisa.<\/p>\n<p>Para o pesquisador da Funda\u00e7\u00e3o Mozilla, Tarc\u00edzio Silva, o uso de dados biom\u00e9tricos de forma a criminalizar a popula\u00e7\u00e3o negra e o desvio de recursos que poderiam melhorar as condi\u00e7\u00f5es de vida dessas popula\u00e7\u00f5es para esse tipo de projeto s\u00e3o faces de um fen\u00f4meno chamado racismo algor\u00edtimico.<\/p>\n<p>Entre outros danos causados pelo enviesamento racista da tecnologia, Silva aponta, por exemplo, a dissemina\u00e7\u00e3o de desinforma\u00e7\u00e3o a partir de conte\u00fados gerados automaticamente por intelig\u00eancia artificial. \u201cSistemas algor\u00edtimicos, infelizmente, podem aprofundar desinforma\u00e7\u00e3o, representa\u00e7\u00f5es negativas, tanto pol\u00edticas quanto erroneamente factuais sobre o mundo\u201d, diz o pesquisador, que faz parte de um projeto que identifica preju\u00edzos causados pelo uso enviesado da tecnologia.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>O Brasil tem, pelo menos 195 projetos que usam o reconhecimento facial para a\u00e7\u00f5es de seguran\u00e7a p\u00fablica, segundo a pesquisa Pan\u00f3ptico do Centro de Estudos de Seguran\u00e7a e Cidadania (CESeC). Segundo o coordenador do centro, Pablo Nunes, foram identificadas iniciativas do tipo em todos os estados brasileiros. Entre 2019 e 2022, o estudo identificou 509 [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":311979,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[16],"tags":[],"class_list":["post-311978","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-brasil"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/posts\/311978","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/comments?post=311978"}],"version-history":[{"count":1,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/posts\/311978\/revisions"}],"predecessor-version":[{"id":311980,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/posts\/311978\/revisions\/311980"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/media\/311979"}],"wp:attachment":[{"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/media?parent=311978"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/categories?post=311978"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.notibras.com\/site\/wp-json\/wp\/v2\/tags?post=311978"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}