Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/20177
Full metadata record
DC FieldValueLanguage
dc.creator.IDSCHMID, J. I. M.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/7522706455054594pt_BR
dc.contributor.advisor1Marinho, Leandro Balby
dc.contributor.advisor1IDMARINHO, L. B.pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3728312501032061pt_BR
dc.contributor.referee1OLIVEIRA, Maxwell Guimarães de.
dc.contributor.referee2MASSONI, Tiago Lima.
dc.description.resumoDestilação do conhecimento é uma técnica que permite transferir o conhecimento de um modelo de aprendizagem de máquina já treinado para um outro modelo utilizando apenas suas saídas. Sabendo que a replicação do comportamento de um modelo utilizando apenas esses dados é factível, torna-se relevante considerar o fator de proteção da propriedade intelectual quando oferecendo as predições de um modelo em um ambiente em que os usuários possam fazer um grande número de acessos. Neste trabalho iremos fazer o uso da destilação do conhecimento como meio para replicar um modelo convolucional de classificação, tendo acesso apenas a suas predições em um dado fora do escopo original de classificação de modo a avaliar se existe um risco do modelo ser roubado uma vez que alguém tenha amplo acesso a ele.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqCiência da Computaçãopt_BR
dc.titleSeu modelo está em perigo? Um estudo de caso sobre replicação de modelos usando destilação de conhecimento com dados fora do escopopt_BR
dc.date.issued2020
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/20177
dc.date.accessioned2021-07-21T22:55:32Z
dc.date.available2021-07-21
dc.date.available2021-07-21T22:55:32Z
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.subjectMachine learningpt_BR
dc.subjectAprendizagem de máquinapt_BR
dc.subjectAprendizaje automáticopt_BR
dc.subjectApprentissage automatiquept_BR
dc.subjectDestilação de conhecimentopt_BR
dc.subjectDistillation de connaissancept_BR
dc.subjectDestilación de conocimientopt_BR
dc.subjectDistillation of knowledgept_BR
dc.subjectRedes neuraispt_BR
dc.subjectNeural networkspt_BR
dc.subjectRedes neuronalespt_BR
dc.subjectRéseaux neuronauxpt_BR
dc.subjectClassificação de imagenspt_BR
dc.subjectClassification des Imagespt_BR
dc.subjectClasificación de Imágenespt_BR
dc.subjectClassification of Imagespt_BR
dc.subjectAcuráciapt_BR
dc.subjectAccuracypt_BR
dc.subjectExactitudpt_BR
dc.subjectExactitudept_BR
dc.subjectAlgoritmo de aprendizagem de máquinapt_BR
dc.subjectAlgorithme d’apprentissage de machinept_BR
dc.subjectAlgoritmo de aprendizaje de máquinapt_BR
dc.subjectLearning algorithm of machinept_BR
dc.rightsAcesso Abertopt_BR
dc.creatorSCHMID, José Ignácio Morsch.
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeIs your model in danger? A case study on model replication using knowledge distillation with out-of-scope datapt_BR
dc.identifier.citationSCHMID, J. I. M. Seu modelo está em perigo? Um estudo de caso sobre replicação de modelos usando destilação de conhecimento com dados fora do escopo. 10 f. Trabalho de Conclusão de Curso - Artigo (Curso de Bacharelado em Ciência da Computação) Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande - Paraíba - Brasil, 2020. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/20177pt_BR
Appears in Collections:Trabalho de Conclusão de Curso - Artigo - Ciência da Computação

Files in This Item:
File Description SizeFormat 
JOSÉ IGNÁCIO MORSXH SCHMID - TCC CIÊNCIA DA COMPUTAÇÃO 2020.pdf870.89 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.