DSpace/Manakin Repository

Seu modelo está em perigo? Um estudo de caso sobre replicação de modelos usando destilação de conhecimento com dados fora do escopo

Mostrar registro simples

dc.creator.ID SCHMID, J. I. M. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/7522706455054594 pt_BR
dc.contributor.advisor1 Marinho, Leandro Balby
dc.contributor.advisor1ID MARINHO, L. B. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/3728312501032061 pt_BR
dc.contributor.referee1 OLIVEIRA, Maxwell Guimarães de.
dc.contributor.referee2 MASSONI, Tiago Lima.
dc.description.resumo Destilação do conhecimento é uma técnica que permite transferir o conhecimento de um modelo de aprendizagem de máquina já treinado para um outro modelo utilizando apenas suas saídas. Sabendo que a replicação do comportamento de um modelo utilizando apenas esses dados é factível, torna-se relevante considerar o fator de proteção da propriedade intelectual quando oferecendo as predições de um modelo em um ambiente em que os usuários possam fazer um grande número de acessos. Neste trabalho iremos fazer o uso da destilação do conhecimento como meio para replicar um modelo convolucional de classificação, tendo acesso apenas a suas predições em um dado fora do escopo original de classificação de modo a avaliar se existe um risco do modelo ser roubado uma vez que alguém tenha amplo acesso a ele. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação pt_BR
dc.title Seu modelo está em perigo? Um estudo de caso sobre replicação de modelos usando destilação de conhecimento com dados fora do escopo pt_BR
dc.date.issued 2020
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/20177
dc.date.accessioned 2021-07-21T22:55:32Z
dc.date.available 2021-07-21
dc.date.available 2021-07-21T22:55:32Z
dc.type Trabalho de Conclusão de Curso pt_BR
dc.subject Machine learning pt_BR
dc.subject Aprendizagem de máquina pt_BR
dc.subject Aprendizaje automático pt_BR
dc.subject Apprentissage automatique pt_BR
dc.subject Destilação de conhecimento pt_BR
dc.subject Distillation de connaissance pt_BR
dc.subject Destilación de conocimiento pt_BR
dc.subject Distillation of knowledge pt_BR
dc.subject Redes neurais pt_BR
dc.subject Neural networks pt_BR
dc.subject Redes neuronales pt_BR
dc.subject Réseaux neuronaux pt_BR
dc.subject Classificação de imagens pt_BR
dc.subject Classification des Images pt_BR
dc.subject Clasificación de Imágenes pt_BR
dc.subject Classification of Images pt_BR
dc.subject Acurácia pt_BR
dc.subject Accuracy pt_BR
dc.subject Exactitud pt_BR
dc.subject Exactitude pt_BR
dc.subject Algoritmo de aprendizagem de máquina pt_BR
dc.subject Algorithme d’apprentissage de machine pt_BR
dc.subject Algoritmo de aprendizaje de máquina pt_BR
dc.subject Learning algorithm of machine pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator SCHMID, José Ignácio Morsch.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Is your model in danger? A case study on model replication using knowledge distillation with out-of-scope data pt_BR
dc.identifier.citation SCHMID, J. I. M. Seu modelo está em perigo? Um estudo de caso sobre replicação de modelos usando destilação de conhecimento com dados fora do escopo. 10 f. Trabalho de Conclusão de Curso - Artigo (Curso de Bacharelado em Ciência da Computação) Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande - Paraíba - Brasil, 2020. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/20177 pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta