Skip navigation
Use este identificador para citar ou linkar para este item: http://repositorio2.unb.br/jspui/handle/10482/45316
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2022_JoséRenatoLaranjeiradePereira.pdf1,86 MBAdobe PDFVisualizar/Abrir
Título: Openness doesn’t hurt : enforcing qualified machine-learning transparency for data protection through responsive regulation
Outros títulos: Abertura não faz mal : promovendo transparência qualificada de sistemas de aprendizagem de máquina para proteção de dados por meio da regulação responsiva
Autor(es): Pereira, José Renato Laranjeira de
Orientador(es): Aranha, Márcio Iorio
Assunto: Aprendizagem de máquina
Transparência
Inteligência artificial - legislação
Regulação responsiva
Data de publicação: 16-Dez-2022
Referência: PEREIRA, José Renato Laranjeira de. Openness doesn’t hurt: enforcing qualified machine-learning transparency for data protection through responsive regulation. 2022. 182 f., il. Dissertação (Mestrado em Direito) — Universidade de Brasília, Brasília, 2022.
Resumo: Sistemas de aprendizagem de máquina (machine learning, ML) têm sido cada vez mais utilizados em processos de tomada de decisões que afetam aspectos-chave das vidas de pessoas. Entretanto, usuários e reguladores pouco sabem sobre como esses modelos funcionam, já que apenas informações escassas são divulgadas por seus desenvolvedores e operadores. A transparência dessas tecnologias surge assim como uma exigência feita por diferentes grupos de especialistas para que os usuários tenham controle sobre o quanto suas vidas devem depender dos julgamentos realizados por sistemas de machine learning, mas também para que reguladores responsabilizem os responsáveis por eles pelos danos que vierem a incorrer. Esta dissertação traça assim uma análise comparativa sobre como as leis brasileira e europeia de proteção de dados abordam a transparência de machine learning e avalia a adequação das estratégias participativas da teoria da regulação responsiva e de sua estrutura de incentivos para promover sistemas mais inteligíveis.
Abstract: Machine-learning (ML) models have been increasingly applied to make decisions that affect key aspects of people’s lives. However, users and regulators are barely aware of how these models work, as only scarce information is disclosed by developers and operators on this matter. ML transparency emerges thus as a recurrent demand made by stakeholders for users to gain control over how much their lives should rely on judgements carried out by machines, for regulators to render those responsible for them accountable for incurred damages and for scholars to understand algorithms' impacts in society. This dissertation thus traces a comparative analysis on how the Brazilian and European data protection legal frameworks address ML transparency and assesses the adequateness of the responsive regulation theory’s participatory strategies and incentives framework for promoting more intelligible systems.
Informações adicionais: Dissertação (mestrado) — Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2022.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.
Aparece nas coleções:Teses, dissertações e produtos pós-doutorado

Mostrar registro completo do item Visualizar estatísticas



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.