搜索资源列表

  1. HUFFMAN_entropy

    0下载:
  2. 运行主函数,得出Huffman码字、平均字长、信源熵。可根据需要修改信源概密 p-running main function, drawn Huffman code word, the average size, entropy source. Under the need to amend the corresponding source close p
  3. 所属分类:其它资源

    • 发布日期:2008-10-13
    • 文件大小:1.85kb
    • 提供者:曹雨
  1. 123

    0下载:
  2. 本文所选的符号信源是从键盘上的94个字符中随机抽取,产生50000个随机符号数,包括了大小写字母和一些基本的字符。这些随机数为了方便起见我在网上随机摘抄了几篇英语文摘作为50000个随机产生的符号数以此来统计这些字符出现的概率,统计出概率,信源熵也自然求出,但本文只统计出符号信源出现的概率。
  3. 所属分类:WEB源码

    • 发布日期:2008-10-13
    • 文件大小:14.31kb
    • 提供者:叶玉荣
  1. 实验一 Huffman编码源码

    0下载:
  2. Huffman编码1. 给出信源符号的一阶概率分布,并计算信源符号熵和单字符Huffman码表。2. 计算每信源的平均字长,并与信源符号熵比较。3. 比较压缩效果。
  3. 所属分类:其它资源

    • 发布日期:2008-10-13
    • 文件大小:43.33kb
    • 提供者:
  1. 实验一 Huffman编码源码

    0下载:
  2. Huffman编码1. 给出信源符号的一阶概率分布,并计算信源符号熵和单字符Huffman码表。2. 计算每信源的平均字长,并与信源符号熵比较。3. 比较压缩效果。-Huffman coding 1. Source symbols are given first-order probability distribution, and calculate the entropy source and single-character sy
  3. 所属分类:数学计算/工程计算

    • 发布日期:2025-01-12
    • 文件大小:43kb
    • 提供者:
  1. HUFFMAN_entropy

    0下载:
  2. 运行主函数,得出Huffman码字、平均字长、信源熵。可根据需要修改信源概密 p-running main function, drawn Huffman code word, the average size, entropy source. Under the need to amend the corresponding source close p
  3. 所属分类:数学计算/工程计算

    • 发布日期:2025-01-12
    • 文件大小:2kb
    • 提供者:曹雨
  1. 123

    0下载:
  2. 本文所选的符号信源是从键盘上的94个字符中随机抽取,产生50000个随机符号数,包括了大小写字母和一些基本的字符。这些随机数为了方便起见我在网上随机摘抄了几篇英语文摘作为50000个随机产生的符号数以此来统计这些字符出现的概率,统计出概率,信源熵也自然求出,但本文只统计出符号信源出现的概率。-In this paper, the selected source symbol from the keyboard of 94 charact
  3. 所属分类:文档资料

    • 发布日期:2025-01-12
    • 文件大小:14kb
    • 提供者:叶玉荣
  1. channel

    0下载:
  2. 利用信源熵和信源信道之间的互信息求得信道容量-Source entropy and the use of source-channel information to achieve interoperability between the channel capacity
  3. 所属分类:通讯编程

    • 发布日期:2025-01-12
    • 文件大小:1kb
    • 提供者:好好
  1. InformationTheoryAndCodingTechniques

    0下载:
  2. 信息论是由通信技术、概率论、随机过程和数理统计等相结合逐步发展而形成的一门新兴科学。其奠基人是美国数学家香农,他的《通信的数学原理》奠定了信息论的基础。 这是信息论与编码技术的教学课件。压缩包内含有6个ppt文件,每个ppt自成一章:1绪论、2信源及其熵、3信道及其容量、4信息率失真函数、5信源编码、6信道编码。是初学信息论的最好材料。-Information communication technology is, probabi
  3. 所属分类:编程文档

    • 发布日期:2025-01-12
    • 文件大小:3.29mb
    • 提供者:yuan
  1. HuffmanCodingInformation

    0下载:
  2. 输入每个符号的概率,可以得到码长、码字,以及信源熵、平均码长和编码效率。-Enter the probability of each symbol, you can get code length, code words, as well as the source entropy, the average code length and coding efficiency.
  3. 所属分类:其他小程序

    • 发布日期:2025-01-12
    • 文件大小:1kb
    • 提供者:chenyu
  1. SHANG

    0下载:
  2. 从键盘输入信源概率P,实现信息量和熵的计算-Keyboard input from the source probability P, the realization of the calculation of the amount of information and entropy
  3. 所属分类:Windows编程

    • 发布日期:2025-01-12
    • 文件大小:1kb
    • 提供者:zhy
  1. huffman

    0下载:
  2. 对无记忆信源运用huffman编码,解码,计算信源熵和编码效率-Memory source to use for non-huffman encoding, decoding, computing source entropy and coding efficiency
  3. 所属分类:压缩解压

    • 发布日期:2025-01-12
    • 文件大小:18kb
    • 提供者:zhaoyang
  1. Huffman

    0下载:
  2. HUFFMAN编码。对一片文章进行HUFFMAN编码,并计算它的信源熵,与编码后的平均码长进行比较。-HUFFMAN coding. Of an article to HUFFMAN coding, and calculate the entropy of its source, and the encoded average code length for comparison.
  3. 所属分类:其他小程序

    • 发布日期:2025-01-12
    • 文件大小:10kb
    • 提供者:gudeyi
  1. main

    0下载:
  2. 最大熵方法 最小方差以及MUSIC算法对信号DOA进行估计,分别对相干信源和独立信源进行仿真效果分析-Maximum entropy method and the MUSIC algorithm for minimum variance to estimate the signal DOA, respectively, of coherent sources and independent sources for analysis of
  3. 所属分类:matlab例程

    • 发布日期:2025-01-12
    • 文件大小:1kb
    • 提供者:刘小明
  1. markov_zero

    0下载:
  2. 计算26个英文字母的markov信源的零阶信源熵-Calculation of the 26 letters of the markov source of zero-order source entropy
  3. 所属分类:.net编程

    • 发布日期:2025-01-12
    • 文件大小:257kb
    • 提供者:zhengxiaomei
  1. imamge-Statistics

    0下载:
  2. 基于vc实现的可用于计算图像的均值、方差和信源熵及平均梯度,支持BMP灰度图像。-Vc achieved can be used to calculate the image of the mean, variance and entropy of the source and the average gradient, supports BMP grayscale images.
  3. 所属分类:Windows编程

    • 发布日期:2025-01-12
    • 文件大小:4.65mb
    • 提供者:tangmi
  1. picture

    0下载:
  2. 基于VC++和Matlab实现的常用图像编码算法,包括Huffman编码、Fano编码、算术编码、游程编码、Shannon编码及信源熵的计算的常用编码算法。-VC++ and Matlab common image coding algorithms, including Huffman coding, Fano coding, arithmetic coding, run-length coding, Shannon coding a
  3. 所属分类:图形图像处理(光照,映射..)

    • 发布日期:2025-01-12
    • 文件大小:106kb
    • 提供者:wmt
  1. Information-Theory-Programming

    0下载:
  2. 信息论中的香农编码、费诺编码、哈夫曼编码、信源熵的C语言实现。-C language source entropy the Shannon coding in information theory, Fenno coding, Huffman coding.
  3. 所属分类:压缩解压

    • 发布日期:2025-01-12
    • 文件大小:1.3mb
    • 提供者:xuwan
  1. Shannon-Encode

    0下载:
  2. 香农编码的C语言实现。任意输入一信源概率,可以计算出对应的码长,码字,信源熵,编码效率等。-Shannon coding in C language. Enter an arbitrary source probabilities can be calculated for the corresponding code length, code words, the source entropy coding efficiency.
  3. 所属分类:中间件编程

    • 发布日期:2025-01-12
    • 文件大小:4kb
    • 提供者:isky
  1. 使用Matlab计算信源熵

    0下载:
  2. 使用Matlab计算信源熵,利用信息论与编码所学知识完成实验(Using Matlab to compute source entropy)
  3. 所属分类:编程文档

    • 发布日期:2025-01-12
    • 文件大小:69kb
    • 提供者:敬楠
  1. 信息论01

    0下载:
  2. 此代码为计算离散随机变量的熵、联合熵、条件熵、互信息的 Matlab 程序(This code is a matlab program for calculating entropy, joint entropy, conditional entropy and mutual information of discrete random variables)
  3. 所属分类:matlab例程

    • 发布日期:2025-01-12
    • 文件大小:5kb
    • 提供者:艾叶star
« 12 3 »

源码中国 www.ymcn.org