A tomada de decisões na esfera pública pode se apoiar em dados e algoritmos para evitar arbitrariedades e erros humanos, mas enfrenta o problema da privacidade
EL PAÍS/BRASIL
Nos últimos anos, temos assistido a uma transição sem
precedentes em nossa história: vários tipos de dados sobre o
comportamento humano (o que fazemos, para onde vamos, quanto gastamos, o
que consumimos, com quem nos comunicamos...) deixaram de ser um recurso
inexistente ou muito escasso e agora estão disponíveis de maneira
abundante e em tempo real. Esta disponibilidade de grandes quantidades de dados (Big Data)
sobre cada um de nós está mudando profundamente o mundo e levou ao
surgimento de uma nova disciplina chamada Ciências Sociais
Computacionais.
As finanças, a economia, a saúde, a medicina, a física, a biologia, a política, o marketing, o jornalismo e o planejamento urbano, entre outras áreas, experimentaram o impacto deste fenômeno. A análise de dados agregados sobre o comportamento humano em grande escala abre oportunidades extraordinárias para compreender e moldar padrões de conduta, assim como para auxiliar na tomada de decisões, de modo que já não somos nós os seres humanos que decidimos, e sim que as decisões venham determinadas por algoritmos construídos a partir desses dados. Por que iríamos querer que um algoritmo decida?
Essa ideia de algoritmos que tomam decisões no lugar das
pessoas pode ser perturbadora. Mas não devemos esquecer que a história
está repleta de inúmeros exemplos de extrema parcialidade no processo de
tomada de decisões por humanos — particularmente, a partir das
estruturas de poder na distribuição dos recursos, da justiça, da
igualdade ou dos bens públicos.
Isto levou a resultados ineficientes, corruptos, injustos,
com sérios conflitos de interesse e com consequências, em muitos casos,
devastadoras para milhões de pessoas (alguns exemplos recentes: a crise econômica,
as hipotecas com cláusulas contratuais fixadas com limite mínimo de
juros, os casos de corrupção...). Diante disso, o desenvolvimento de
algoritmos para a tomada de decisões com base em dados reflete a busca
da objetividade e da aspiração de decidir baseando-se em evidências de
modo a eliminar — ou pelo menos minimizar — a discriminação, a
corrupção, a injustiça ou a ineficiência das quais, infelizmente, as
decisões humanas não escapam. No contexto do bem social, William
Easterly propõe o conceito da “tirania dos especialistas”, segundo o
qual economistas, centro de estudos, agências de ajuda humanitária,
analistas e especialistas têm dominado projetos globais de
desenvolvimento econômico e de redução da pobreza.
Como consequência desta “tirania”, tem-se observado que os especialistas preferem soluções tecnocráticas que, muitas vezes, não respeitaram os direitos individuais dos cidadãos e não tiveram o impacto positivo esperado.
Dado o potencial dos dados, nos últimos anos tem surgido um campo fértil de pesquisa focada no desenvolvimento de fórmulas para a tomada de decisões na área de melhorias sociais, ou seja, algoritmos que influenciam nas decisões e na otimização de recursos. Esses algoritmos são projetados para analisar grandes quantidades de informação de várias fontes e, automaticamente, selecionar os dados relevantes para usá-los de forma concreta.
É o que se chama big data para o bem social. E, nesse campo,
foram realizados projetos que têm analisado o valor dos dados para
entender o desenvolvimento econômico de uma região, prever o crime,
estipular modelos de propagação de doenças infecciosas como a gripe ou o
ebola, estimar as emissões de CO2 ou quantificar o impacto de desastres
naturais. Pesquisadores e Governos, ONGs, empresas e grupos de cidadãos
estão experimentando ativamente, inovando e adaptando ferramentas de
tomada de decisões para alcançar soluções que estejam baseadas na
análise de informações. O potencial é enorme, e esta é justamente uma
das motivações da minha pesquisa nesta área.
Dentro da comunidade científica, também foram identificados vários desafios sociais, éticos e legais relacionados à tomada de decisões por meio de algoritmos, afetando questões como a privacidade, a segurança, a transparência, a ambiguidade em relação à responsabilidade, o viés e a discriminação. De fato, em 2014, a Casa Branca divulgou o relatório “Big Data: Capturando Oportunidades, Preservando Valores”, ressaltando a discriminação potencial que os dados podem conter e identificando certos riscos em relação ao uso de dados pessoais para tomar decisões sobre o crédito, a saúde ou o emprego das pessoas. Corremos o risco de substituir a “tirania dos especialistas” por uma “tirania dos dados”, se não nos conscientizarmos e tomarmos medidas para minimizar ou eliminar as limitações inerentes nas decisões baseadas em dados.
A fim de aproveitar devidamente o potencial das decisões
baseadas em dados e avançar em direção a um mundo mais justo, honesto e
igualitário, existem quatro grandes desafios que devemos resolver no uso
de algoritmos na tomada de decisões.
O primeiro obstáculo é garantir a privacidade dos indivíduos. Como os algoritmos têm acesso a dados provenientes de um número crescente de fontes, mesmo se esses dados são anônimos, a partir de seu cruzamento e combinação seria possível inferir algumas características sobre uma pessoa em particular, ainda que essa informação nunca tenha sido divulgada pelo indivíduo, como ilustrado no trabalho de Yves Alexandre de Montjoye. Felizmente, medidas podem ser tomadas para minimizar ou eliminar o impacto sobre a privacidade, tais como a agregação de dados anônimos.
Outro desafio é a assimetria no acesso à informação. Poderíamos chegar a uma situação na qual uma minoria tem acesso a dados e dispõe do conhecimento e das ferramentas necessárias para analisá-los, enquanto que uma maioria, não. Esta situação agravaria a assimetria existente na distribuição de poder entre Governos ou empresas, por um lado, e pessoas do outro. Iniciativas para promover dados abertos (open data) e programas de educação que promovam a alfabetização digital e a análise de dados são dois exemplos de medidas que poderiam ser desenvolvidas para mitigar isso.
O terceiro ponto de divergência é a opacidade dos algoritmos. Jenna Burrell fala de uma estrutura que caracteriza a opacidade dos algoritmos em três tipos: 1) opacidade intencional, onde o objetivo é a proteção da propriedade intelectual; 2) a opacidade da ignorância, porque a maioria dos cidadãos não tem o conhecimento técnico para compreender os algoritmos de inteligência artificial subjacentes; e 3) opacidade intrínseca, resultado da natureza das operações matemáticas utilizadas, que, muitas vezes, são muito difíceis ou impossíveis de interpretar. Esses tipos de opacidade podem ser minimizados com a introdução de legislação que obrigue o uso de sistemas abertos, com programas educacionais em pensamento computacional, com iniciativas para explicar aos cidadãos sem conhecimentos técnicos como os algoritmos da tomada de decisões funcionam e com o uso de modelos de inteligência artificial que sejam facilmente interpretáveis, embora satisfazer tal condição implique utilizar modelos mais simples ou obter resultados inferiores quando comparados com os obtidos com modelos “caixa preta”.
O último desafio é a exclusão social e a discriminação em potencial que poderiam resultar das decisões tomadas por algoritmos baseados em dados. As razões são múltiplas: em primeiro lugar, os dados utilizados podem conter vieses que são refletidos nesses algoritmos; além disso, se os modelos não são usados corretamente, os resultados podem ser discriminatórios — isso foi demonstrado no recente trabalho de Toon Calders e Indr Žliobaitė. Outro risco é que oportunidades sejam negadas a certos indivíduos, não devido às suas próprias ações, e sim por causa de ações de outras pessoas com as quais compartilham algumas características. Por exemplo, algumas empresas de cartões de crédito têm reduzido os limites para clientes não com base em seu histórico financeiro, e sim a partir da análise de dados de outros clientes com um histórico financeiro negativo, que compraram nas mesmas lojas onde os clientes punidos haviam consumido, como refletido em um relatório pela Comissão Federal de Comércio dos EUA. Por isso, é de vital importância conhecer bem tanto as virtudes quanto os problemas dos dados e dos modelos utilizados, e realizar a análise necessária para identificar e quantificar possíveis limitações.
Felizmente, esses desafios não são insuperáveis. O potencial dos dados para ajudar a melhorar o mundo é imenso em muitas áreas, incluindo a saúde pública, a resposta a desastres naturais e situações de crise, a segurança pública, o aquecimento global, a educação, o planejamento urbano, o desenvolvimento econômico ou a elaboração de estatísticas. De fato, o uso do big data é um elemento central dos 17 Objetivos para o Desenvolvimento Sustentável (SDG) das Nações Unidas: os dados — e as conclusões que podemos tirar com sua análise — são e serão um elemento-chave para nos ajudar a enfrentar os grandes desafios de nossa espécie.
Bem utilizados, os dados oferecem a oportunidade de democratizar certas decisões, superando a “tirania dos especialistas” mencionada anteriormente e conseguindo que as decisões respondam a variáveis menos sujeitas à arbitrariedade de alguns poucos. Mas também devemos encontrar um equilíbrio e assumir a responsabilidade para não cair em uma “tirania dos dados”. Somente a partir de um compromisso coletivo que envolva pesquisadores, políticos e outros agentes sociais como os cidadãos — qualquer um que possa estar lendo este artigo — poderemos explorar e aproveitar as possibilidades potenciais que os dados oferecem para a conquista do bem comum, do nosso e das gerações futuras. Temos uma oportunidade que não devemos— nem podemos — perder.
As finanças, a economia, a saúde, a medicina, a física, a biologia, a política, o marketing, o jornalismo e o planejamento urbano, entre outras áreas, experimentaram o impacto deste fenômeno. A análise de dados agregados sobre o comportamento humano em grande escala abre oportunidades extraordinárias para compreender e moldar padrões de conduta, assim como para auxiliar na tomada de decisões, de modo que já não somos nós os seres humanos que decidimos, e sim que as decisões venham determinadas por algoritmos construídos a partir desses dados. Por que iríamos querer que um algoritmo decida?
Corremos o risco de substituir a 'tirania dos especialistas' pela 'tirania dos dados'
Como consequência desta “tirania”, tem-se observado que os especialistas preferem soluções tecnocráticas que, muitas vezes, não respeitaram os direitos individuais dos cidadãos e não tiveram o impacto positivo esperado.
Dado o potencial dos dados, nos últimos anos tem surgido um campo fértil de pesquisa focada no desenvolvimento de fórmulas para a tomada de decisões na área de melhorias sociais, ou seja, algoritmos que influenciam nas decisões e na otimização de recursos. Esses algoritmos são projetados para analisar grandes quantidades de informação de várias fontes e, automaticamente, selecionar os dados relevantes para usá-los de forma concreta.
As conclusões que podemos tirar são essenciais para enfrentar os grandes desafios de nossa espécie
Dentro da comunidade científica, também foram identificados vários desafios sociais, éticos e legais relacionados à tomada de decisões por meio de algoritmos, afetando questões como a privacidade, a segurança, a transparência, a ambiguidade em relação à responsabilidade, o viés e a discriminação. De fato, em 2014, a Casa Branca divulgou o relatório “Big Data: Capturando Oportunidades, Preservando Valores”, ressaltando a discriminação potencial que os dados podem conter e identificando certos riscos em relação ao uso de dados pessoais para tomar decisões sobre o crédito, a saúde ou o emprego das pessoas. Corremos o risco de substituir a “tirania dos especialistas” por uma “tirania dos dados”, se não nos conscientizarmos e tomarmos medidas para minimizar ou eliminar as limitações inerentes nas decisões baseadas em dados.
Cifras que geramos: a cada dia são criados 2,5 bilhões de gigabytes de dados, segundo um estudo da IBM em 2012
O primeiro obstáculo é garantir a privacidade dos indivíduos. Como os algoritmos têm acesso a dados provenientes de um número crescente de fontes, mesmo se esses dados são anônimos, a partir de seu cruzamento e combinação seria possível inferir algumas características sobre uma pessoa em particular, ainda que essa informação nunca tenha sido divulgada pelo indivíduo, como ilustrado no trabalho de Yves Alexandre de Montjoye. Felizmente, medidas podem ser tomadas para minimizar ou eliminar o impacto sobre a privacidade, tais como a agregação de dados anônimos.
Outro desafio é a assimetria no acesso à informação. Poderíamos chegar a uma situação na qual uma minoria tem acesso a dados e dispõe do conhecimento e das ferramentas necessárias para analisá-los, enquanto que uma maioria, não. Esta situação agravaria a assimetria existente na distribuição de poder entre Governos ou empresas, por um lado, e pessoas do outro. Iniciativas para promover dados abertos (open data) e programas de educação que promovam a alfabetização digital e a análise de dados são dois exemplos de medidas que poderiam ser desenvolvidas para mitigar isso.
O terceiro ponto de divergência é a opacidade dos algoritmos. Jenna Burrell fala de uma estrutura que caracteriza a opacidade dos algoritmos em três tipos: 1) opacidade intencional, onde o objetivo é a proteção da propriedade intelectual; 2) a opacidade da ignorância, porque a maioria dos cidadãos não tem o conhecimento técnico para compreender os algoritmos de inteligência artificial subjacentes; e 3) opacidade intrínseca, resultado da natureza das operações matemáticas utilizadas, que, muitas vezes, são muito difíceis ou impossíveis de interpretar. Esses tipos de opacidade podem ser minimizados com a introdução de legislação que obrigue o uso de sistemas abertos, com programas educacionais em pensamento computacional, com iniciativas para explicar aos cidadãos sem conhecimentos técnicos como os algoritmos da tomada de decisões funcionam e com o uso de modelos de inteligência artificial que sejam facilmente interpretáveis, embora satisfazer tal condição implique utilizar modelos mais simples ou obter resultados inferiores quando comparados com os obtidos com modelos “caixa preta”.
O último desafio é a exclusão social e a discriminação em potencial que poderiam resultar das decisões tomadas por algoritmos baseados em dados. As razões são múltiplas: em primeiro lugar, os dados utilizados podem conter vieses que são refletidos nesses algoritmos; além disso, se os modelos não são usados corretamente, os resultados podem ser discriminatórios — isso foi demonstrado no recente trabalho de Toon Calders e Indr Žliobaitė. Outro risco é que oportunidades sejam negadas a certos indivíduos, não devido às suas próprias ações, e sim por causa de ações de outras pessoas com as quais compartilham algumas características. Por exemplo, algumas empresas de cartões de crédito têm reduzido os limites para clientes não com base em seu histórico financeiro, e sim a partir da análise de dados de outros clientes com um histórico financeiro negativo, que compraram nas mesmas lojas onde os clientes punidos haviam consumido, como refletido em um relatório pela Comissão Federal de Comércio dos EUA. Por isso, é de vital importância conhecer bem tanto as virtudes quanto os problemas dos dados e dos modelos utilizados, e realizar a análise necessária para identificar e quantificar possíveis limitações.
Felizmente, esses desafios não são insuperáveis. O potencial dos dados para ajudar a melhorar o mundo é imenso em muitas áreas, incluindo a saúde pública, a resposta a desastres naturais e situações de crise, a segurança pública, o aquecimento global, a educação, o planejamento urbano, o desenvolvimento econômico ou a elaboração de estatísticas. De fato, o uso do big data é um elemento central dos 17 Objetivos para o Desenvolvimento Sustentável (SDG) das Nações Unidas: os dados — e as conclusões que podemos tirar com sua análise — são e serão um elemento-chave para nos ajudar a enfrentar os grandes desafios de nossa espécie.
Bem utilizados, os dados oferecem a oportunidade de democratizar certas decisões, superando a “tirania dos especialistas” mencionada anteriormente e conseguindo que as decisões respondam a variáveis menos sujeitas à arbitrariedade de alguns poucos. Mas também devemos encontrar um equilíbrio e assumir a responsabilidade para não cair em uma “tirania dos dados”. Somente a partir de um compromisso coletivo que envolva pesquisadores, políticos e outros agentes sociais como os cidadãos — qualquer um que possa estar lendo este artigo — poderemos explorar e aproveitar as possibilidades potenciais que os dados oferecem para a conquista do bem comum, do nosso e das gerações futuras. Temos uma oportunidade que não devemos— nem podemos — perder.
Nuria Oliver é
especialista em inteligência artificial e ‘big data’, coautora do
relatório ‘The Tyranny of Data? The Bright and Dark Sides of Data-Driven
Decision-Making for Social Good’.
0 comentários:
Postar um comentário