{"id":118767,"date":"2019-09-22T07:40:30","date_gmt":"2019-09-22T10:40:30","guid":{"rendered":"http:\/\/www.caririemacao.com\/1\/?p=118767"},"modified":"2019-09-22T07:40:30","modified_gmt":"2019-09-22T10:40:30","slug":"especialistas-alertam-sobre-riscos-de-algoritmos-para-prever-habitos","status":"publish","type":"post","link":"https:\/\/www.caririemacao.com\/1\/2019\/09\/22\/especialistas-alertam-sobre-riscos-de-algoritmos-para-prever-habitos\/","title":{"rendered":"Especialistas alertam sobre riscos de algoritmos para prever h\u00e1bitos"},"content":{"rendered":"\n<p>Nos Estados Unidos, um cidad\u00e3o entrou em um supermercado na cidade de Minneapolis para reclamar que sua filha adolescente estava recebendo propagandas para gr\u00e1vidas. Dias depois, o pai da garota se desculpou com o estabelecimento ao confirmar com a filha que ela realmente esperava um beb\u00ea.<\/p>\n\n\n\n<p>A hist\u00f3ria, revelada em reportagem do New York Times em 2012, foi retomada pelo professor da Ohio State Univerity Dennis Hirsch para ilustrar o poder de tecnologias de coleta e an\u00e1lise de dados (chamada em ingl\u00eas de&nbsp;<em>Big Data Analytics<\/em>) utilizadas para prever comportamentos e aplicar essas infer\u00eancias em diversos campos, do&nbsp;<em>marketing<\/em>&nbsp;\u00e0 concess\u00e3o de cr\u00e9ditos ou acesso a servi\u00e7os de sa\u00fade.<\/p>\n\n\n\n<p>O docente abordou o tema no 10\u00ba Semin\u00e1rio de Prote\u00e7\u00e3o \u00e0 Privacidade e aos Dados Pessoais, evento organizado pelo Comit\u00ea Gestor da Internet no Brasil nesta semana em S\u00e3o Paulo. Segundo o docente, o caso exemplifica um dos riscos dessas t\u00e9cnicas ao considerar sentimentos, tra\u00e7os de personalidade e comportamentos como forma de persuadir pessoas a adquirem algum produto ou servi\u00e7o.<\/p>\n\n\n\n<p>Outro risco potencial, acrescentou, \u00e9 a manipula\u00e7\u00e3o de indiv\u00edduos em processos pol\u00edticos. Ele citou o esc\u00e2ndalo da empresa Cambridge Analytica, que utilizou dados levantados no Facebook por um aplicativo para explorar emo\u00e7\u00f5es das pessoas em campanhas eleitorais, como na disputa presidencial dos Estados Unidos de 2016 e no referendo que avaliou a perman\u00eancia ou n\u00e3o do Reino Unido na Uni\u00e3o Europeia.<\/p>\n\n\n\n<p>Esses tipos de ferramentas examina grande quantidade de bases de dados, estabelece correla\u00e7\u00f5es entre elas e identifica padr\u00f5es. Estes s\u00e3o tomados como base para prever comportamentos das pessoas, como se um consumidor tem maior ou menor propens\u00e3o a ficar adimplente ou inadimplente em um servi\u00e7o, como cart\u00e3o de cr\u00e9dito.<\/p>\n\n\n\n<p>Um problema potencial nesse tipo de opera\u00e7\u00e3o \u00e9 a discrimina\u00e7\u00e3o. Esta pode ocorrer tanto pela finalidade do uso quanto pela forma como a tecnologia \u00e9 desenhada. Ao tra\u00e7ar padr\u00f5es e classificar pessoas e atitudes, um sistema pode definir par\u00e2metros considerados adequados e desvalorizar quem n\u00e3o se enquadra neles, com risco de colocar nessa posi\u00e7\u00e3o segmentos sociais, como no exemplo dos problemas do<a href=\"http:\/\/agenciabrasil.ebc.com.br\/geral\/noticia\/2019-09\/tecnologias-de-reconhecimento-facial-sao-usadas-em-37-cidades-no-pais\" target=\"_blank\" rel=\"noreferrer noopener\">&nbsp;reconhecimento facial&nbsp;<\/a>para negros.<\/p>\n\n\n\n<p>Este tipo de tratamento pode ainda ser refor\u00e7ado pelos registros utilizados para treinar o sistema. Hirsch citou como exemplo a empresa de com\u00e9rcio eletr\u00f4nico Amazon. Ao desenvolver um algoritmo para avaliar curr\u00edculos, a base empregada foi a dos pr\u00f3prios funcion\u00e1rios da companhia. Como na \u00e1rea de tecnologia h\u00e1 mais profissionais homens, o programa passou a utilizar como curr\u00edculo desej\u00e1vel crit\u00e9rios que desvalorizavam mulheres.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Explica\u00e7\u00e3o e cuidados<\/h2>\n\n\n\n<p>O pesquisador e professor da Data Privacy BR Renato Leite Monteiro colocou como problema chave a opacidade dessas tecnologias e a falta de conhecimento sobre como elas funcionam. Diante disso, defendeu o que chamou de um direito \u00e0 explica\u00e7\u00e3o. Este consistiria na garantia ao cidad\u00e3o de ter informa\u00e7\u00f5es intelig\u00edveis sobre como o dado foi processado, de modo que possa compreender como uma decis\u00e3o foi tomada sobre ele e de que maneira pode reagir a ela.<\/p>\n\n\n\n<p>Ele lembrou que hoje o processamento de informa\u00e7\u00f5es por algoritmos e sistemas inteligentes est\u00e1 em diversas \u00e1reas e os problemas nele podem afetar direitos em setores como sa\u00fade (notas para planos de sa\u00fade), moradia (financiamento habitacional), mercado financeiro (concess\u00e3o de cr\u00e9dito), educa\u00e7\u00e3o (acesso a escolas e cursos), emprego (an\u00e1lise para contrata\u00e7\u00e3o), entre outros.<\/p>\n\n\n\n<p>A diretora de pol\u00edticas para transforma\u00e7\u00e3o digital do Minist\u00e9rio da Ci\u00eancia, Tecnologia, Inova\u00e7\u00f5es e Comunica\u00e7\u00f5es (MCTIC), Miriam Wimmer, abordou esses riscos no caso de sistemas de intelig\u00eancia artificial. Ela refor\u00e7ou que tamb\u00e9m no caso destas tecnologias existem diversas pesquisas mostrando casos de discrimina\u00e7\u00e3o.<\/p>\n\n\n\n<p>Diante destes problemas, a gestora p\u00fablica defendeu alguns princ\u00edpios orientadores. O desenvolvimento dessas solu\u00e7\u00f5es deveria ser orientado por valores. Este processo deveria abarcar avalia\u00e7\u00f5es pr\u00e9vias do impacto e dos riscos. A coleta de dados deveria ser restrita ao m\u00ednimo poss\u00edvel nas fases de treinamento. E ao longo do ciclo desses produtos deveriam ser implementados mecanismos de monitoramento com participa\u00e7\u00e3o dos atores impactados.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nos Estados Unidos, um cidad\u00e3o entrou em um supermercado na cidade de Minneapolis para reclamar que sua filha adolescente estava recebendo propagandas para gr\u00e1vidas. Dias&hellip; <\/p>\n","protected":false},"author":1,"featured_media":118769,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"sfsi_plus_gutenberg_text_before_share":"","sfsi_plus_gutenberg_show_text_before_share":"","sfsi_plus_gutenberg_icon_type":"","sfsi_plus_gutenberg_icon_alignemt":"","sfsi_plus_gutenburg_max_per_row":"","footnotes":""},"categories":[2],"tags":[],"class_list":["post-118767","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-geral"],"_links":{"self":[{"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/posts\/118767","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/comments?post=118767"}],"version-history":[{"count":1,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/posts\/118767\/revisions"}],"predecessor-version":[{"id":118770,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/posts\/118767\/revisions\/118770"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/media\/118769"}],"wp:attachment":[{"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/media?parent=118767"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/categories?post=118767"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.caririemacao.com\/1\/wp-json\/wp\/v2\/tags?post=118767"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}