| dc.contributor.advisor | Jurečková, Jana | |
| dc.creator | Kuc, Petr | |
| dc.date.accessioned | 2017-05-27T19:33:27Z | |
| dc.date.available | 2017-05-27T19:33:27Z | |
| dc.date.issued | 2014 | |
| dc.identifier.uri | http://hdl.handle.net/20.500.11956/72522 | |
| dc.description.abstract | Shannonova entropie pravděpodobnostního rozdělení udává vážený průměr míry informace, kterou získáme pozorováním náhodné veličiny řídící se daným rozdělením. V této práci nejprve zavedeme obsáhlejší pojetí pojmu informační entropie a uvedeme Shannonovu entropii jako důležitý speciální případ. Dále spočítáme Shannonovu entropii pro některá konkrétní pravděpodobnostní rozdělení, ukážeme, která rozdělení nabývají největší entropie za různých podmínek a představíme princip maximální entropie jako užitečný odhad pravděpodobnostních modelů. Další náplní práce je zavedení principu mi- nimální divergence, který slouží k libovolně přesnému odhadu pravděpodobnostního rozdělení náhodné veličiny při znalosti náhodného výběru o dostatečném roz- sahu. Nakonec dokážeme konvergenci binomického rozdělení k Poissonovu v Shannonově divergenci. 1 | cs_CZ |
| dc.description.abstract | Shannon entropy of a probability distribution gives a weighted mean of a measure of information that we are given when we observe a ran- dom variable with the distribution. In this thesis we introduce more extensive concept of the term of information entropy and we introduce Shannon entropy as an important special case. Then we compute Shannon entropy for some specific probability distributions, show which distributions have maximal en- tropy under given constraints and we introduce the principle of maximum entropy as a useful estimate of probability models. Another topic of this thesis is an introduction of the principle of minimum divergence by which we can arbitrarily accurately estimate an unknown probability distribution of the given random variable if we have a sufficiently long random sample. Finally we prove that the binomial distribution converges to the Poisson distribution in the Shannon divergence. 1 | en_US |
| dc.language | Čeština | cs_CZ |
| dc.language.iso | cs_CZ | |
| dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
| dc.subject | diskrétní rozdělení | cs_CZ |
| dc.subject | entropie | cs_CZ |
| dc.subject | informační divergence | cs_CZ |
| dc.subject | Poissonův zákon | cs_CZ |
| dc.subject | discrete distributions | en_US |
| dc.subject | entropy | en_US |
| dc.subject | information divergence | en_US |
| dc.subject | Poisson's law | en_US |
| dc.title | Entropie a diskrétní rozdělení | cs_CZ |
| dc.type | bakalářská práce | cs_CZ |
| dcterms.created | 2014 | |
| dcterms.dateAccepted | 2014-06-26 | |
| dc.description.department | Department of Probability and Mathematical Statistics | en_US |
| dc.description.department | Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
| dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
| dc.description.faculty | Faculty of Mathematics and Physics | en_US |
| dc.identifier.repId | 140411 | |
| dc.title.translated | Entropy and discrete distributions | en_US |
| dc.contributor.referee | Hlubinka, Daniel | |
| dc.identifier.aleph | 001786487 | |
| thesis.degree.name | Bc. | |
| thesis.degree.level | bakalářské | cs_CZ |
| thesis.degree.discipline | Obecná matematika | cs_CZ |
| thesis.degree.discipline | General Mathematics | en_US |
| thesis.degree.program | Matematika | cs_CZ |
| thesis.degree.program | Mathematics | en_US |
| uk.thesis.type | bakalářská práce | cs_CZ |
| uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
| uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Probability and Mathematical Statistics | en_US |
| uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
| uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
| uk.faculty-abbr.cs | MFF | cs_CZ |
| uk.degree-discipline.cs | Obecná matematika | cs_CZ |
| uk.degree-discipline.en | General Mathematics | en_US |
| uk.degree-program.cs | Matematika | cs_CZ |
| uk.degree-program.en | Mathematics | en_US |
| thesis.grade.cs | Výborně | cs_CZ |
| thesis.grade.en | Excellent | en_US |
| uk.abstract.cs | Shannonova entropie pravděpodobnostního rozdělení udává vážený průměr míry informace, kterou získáme pozorováním náhodné veličiny řídící se daným rozdělením. V této práci nejprve zavedeme obsáhlejší pojetí pojmu informační entropie a uvedeme Shannonovu entropii jako důležitý speciální případ. Dále spočítáme Shannonovu entropii pro některá konkrétní pravděpodobnostní rozdělení, ukážeme, která rozdělení nabývají největší entropie za různých podmínek a představíme princip maximální entropie jako užitečný odhad pravděpodobnostních modelů. Další náplní práce je zavedení principu mi- nimální divergence, který slouží k libovolně přesnému odhadu pravděpodobnostního rozdělení náhodné veličiny při znalosti náhodného výběru o dostatečném roz- sahu. Nakonec dokážeme konvergenci binomického rozdělení k Poissonovu v Shannonově divergenci. 1 | cs_CZ |
| uk.abstract.en | Shannon entropy of a probability distribution gives a weighted mean of a measure of information that we are given when we observe a ran- dom variable with the distribution. In this thesis we introduce more extensive concept of the term of information entropy and we introduce Shannon entropy as an important special case. Then we compute Shannon entropy for some specific probability distributions, show which distributions have maximal en- tropy under given constraints and we introduce the principle of maximum entropy as a useful estimate of probability models. Another topic of this thesis is an introduction of the principle of minimum divergence by which we can arbitrarily accurately estimate an unknown probability distribution of the given random variable if we have a sufficiently long random sample. Finally we prove that the binomial distribution converges to the Poisson distribution in the Shannon divergence. 1 | en_US |
| uk.file-availability | V | |
| uk.publication.place | Praha | cs_CZ |
| uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
| dc.identifier.lisID | 990017864870106986 | |