Zobrazit minimální záznam

Knowledge Extraction with BP-networks
dc.contributor.advisorMrázová, Iveta
dc.creatorReitermanová, Zuzana
dc.date.accessioned2017-04-06T11:26:11Z
dc.date.available2017-04-06T11:26:11Z
dc.date.issued2007
dc.identifier.urihttp://hdl.handle.net/20.500.11956/13238
dc.description.abstractModel vrstevnatých neuronových sítí je známý především díky své univerzální aproximační schopnosti. Již základní algoritmus zpětného šíření dává výsledky použtelné v reálných aplikacích. Efektivní řešení složitých úloh by však mělo vyhovovat náročným požadavkům na rychlost procesu učení a na transparentní strukturu vytvořené sítě. Ta totiž souvisí s lepší schopností sítě zobecňovat extrahované znalosti a následně i se snazší interpretací funkce naučené sítě. Lepšího zobecňování lze dosáhnout použitím různých technik, jako je např. učení s nápovědou, prořezávání a analýza citlivosti. Mezi rychlé algoritmy učení pak patří metody konjugovaných gradientů. V první části této práce jsme shrnuli a navzájem porovnali výše zmíněné techniky. Následně jsme odvodili novou metodu, která v sobě spojuje výhody předchozích technik. Navržený algoritmus je inspirovaný extrémně rychlou metodou škálovaných konjugovaných gradientů. Původní metodu jsme však rozšířili o vynucovanou kondenzovanou interní reprezentaci a prořezávání motivované citlivostní analýzou. Vlastnosti navržené techniky jsme otestovali na umělých úlohách i na reálných datech ze Světové banky. Doposud provedené experimenty naznačují slibné výsledky nového přístupu. Navržená technika dává ve všech ohledech mnohem lepší výsledky než jednotlivé původní metody a...cs_CZ
dc.description.abstractMulti-layered neural networks of the back-propagation type are well known for their universal approximation capability. Already the standard back-propagation training algorithm used for their adjustment provides often applicable results. However, e cient solutions to complex tasks currently dealt with require a quick convergence and a transparent network structure. This supports both an improved generalization capability of the formed networks and an easier interpretation of their function later on. Various techniques used to optimize the structure of the networks like learning with hints; pruning and sensitivity analysis are expected to impact a better generalization, too. One of the fast learning algorithms is the conjugate gradient method. In this thesis, we discuss, test and analyze the above-mentioned methods. Then, we derive a new technique combining together the advantages of them. The proposed algorithm is based on the rapid scaled conjugate gradient technique. This classical method is enhanced with the enforcement of a transparent internal knowledge representation and with pruning of redundant hidden and input neurons inspired by sensitivity analysis. The performance of the developed technique has been tested on arti cial data and on real-world data obtained from the World Bank. Experiments done...en_US
dc.languageČeštinacs_CZ
dc.language.isocs_CZ
dc.publisherUniverzita Karlova, Matematicko-fyzikální fakultacs_CZ
dc.titleExtrakce znalostí pomocí vrstevnatých neuronových sítícs_CZ
dc.typediplomová prácecs_CZ
dcterms.created2007
dcterms.dateAccepted2007-09-18
dc.description.departmentKatedra softwarového inženýrstvícs_CZ
dc.description.departmentDepartment of Software Engineeringen_US
dc.description.facultyFaculty of Mathematics and Physicsen_US
dc.description.facultyMatematicko-fyzikální fakultacs_CZ
dc.identifier.repId43092
dc.title.translatedKnowledge Extraction with BP-networksen_US
dc.contributor.refereeHolan, Tomáš
dc.identifier.aleph001165322
thesis.degree.nameMgr.
thesis.degree.levelmagisterskécs_CZ
thesis.degree.disciplineTeoretická informatikacs_CZ
thesis.degree.disciplineTheoretical computer scienceen_US
thesis.degree.programInformaticsen_US
thesis.degree.programInformatikacs_CZ
uk.thesis.typediplomová prácecs_CZ
uk.taxonomy.organization-csMatematicko-fyzikální fakulta::Katedra softwarového inženýrstvícs_CZ
uk.taxonomy.organization-enFaculty of Mathematics and Physics::Department of Software Engineeringen_US
uk.faculty-name.csMatematicko-fyzikální fakultacs_CZ
uk.faculty-name.enFaculty of Mathematics and Physicsen_US
uk.faculty-abbr.csMFFcs_CZ
uk.degree-discipline.csTeoretická informatikacs_CZ
uk.degree-discipline.enTheoretical computer scienceen_US
uk.degree-program.csInformatikacs_CZ
uk.degree-program.enInformaticsen_US
thesis.grade.csVýborněcs_CZ
thesis.grade.enExcellenten_US
uk.abstract.csModel vrstevnatých neuronových sítí je známý především díky své univerzální aproximační schopnosti. Již základní algoritmus zpětného šíření dává výsledky použtelné v reálných aplikacích. Efektivní řešení složitých úloh by však mělo vyhovovat náročným požadavkům na rychlost procesu učení a na transparentní strukturu vytvořené sítě. Ta totiž souvisí s lepší schopností sítě zobecňovat extrahované znalosti a následně i se snazší interpretací funkce naučené sítě. Lepšího zobecňování lze dosáhnout použitím různých technik, jako je např. učení s nápovědou, prořezávání a analýza citlivosti. Mezi rychlé algoritmy učení pak patří metody konjugovaných gradientů. V první části této práce jsme shrnuli a navzájem porovnali výše zmíněné techniky. Následně jsme odvodili novou metodu, která v sobě spojuje výhody předchozích technik. Navržený algoritmus je inspirovaný extrémně rychlou metodou škálovaných konjugovaných gradientů. Původní metodu jsme však rozšířili o vynucovanou kondenzovanou interní reprezentaci a prořezávání motivované citlivostní analýzou. Vlastnosti navržené techniky jsme otestovali na umělých úlohách i na reálných datech ze Světové banky. Doposud provedené experimenty naznačují slibné výsledky nového přístupu. Navržená technika dává ve všech ohledech mnohem lepší výsledky než jednotlivé původní metody a...cs_CZ
uk.abstract.enMulti-layered neural networks of the back-propagation type are well known for their universal approximation capability. Already the standard back-propagation training algorithm used for their adjustment provides often applicable results. However, e cient solutions to complex tasks currently dealt with require a quick convergence and a transparent network structure. This supports both an improved generalization capability of the formed networks and an easier interpretation of their function later on. Various techniques used to optimize the structure of the networks like learning with hints; pruning and sensitivity analysis are expected to impact a better generalization, too. One of the fast learning algorithms is the conjugate gradient method. In this thesis, we discuss, test and analyze the above-mentioned methods. Then, we derive a new technique combining together the advantages of them. The proposed algorithm is based on the rapid scaled conjugate gradient technique. This classical method is enhanced with the enforcement of a transparent internal knowledge representation and with pruning of redundant hidden and input neurons inspired by sensitivity analysis. The performance of the developed technique has been tested on arti cial data and on real-world data obtained from the World Bank. Experiments done...en_US
uk.file-availabilityV
uk.publication.placePrahacs_CZ
uk.grantorUniverzita Karlova, Matematicko-fyzikální fakulta, Katedra softwarového inženýrstvícs_CZ
dc.identifier.lisID990011653220106986


Soubory tohoto záznamu

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

Tento záznam se objevuje v následujících sbírkách

Zobrazit minimální záznam


© 2025 Univerzita Karlova, Ústřední knihovna, Ovocný trh 560/5, 116 36 Praha 1; email: admin-repozitar [at] cuni.cz

Za dodržení všech ustanovení autorského zákona jsou zodpovědné jednotlivé složky Univerzity Karlovy. / Each constituent part of Charles University is responsible for adherence to all provisions of the copyright law.

Upozornění / Notice: Získané informace nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora. / Any retrieved information shall not be used for any commercial purposes or claimed as results of studying, scientific or any other creative activities of any person other than the author.

DSpace software copyright © 2002-2015  DuraSpace
Theme by 
@mire NV