机读格式显示(MARC)
- 010 __ |a 978-7-5192-9696-4 |d CNY189.00
- 100 __ |a 20230221e2023 em y0chiy50 ba
- 200 1_ |a Information theoretic learning |A Information Theoretic Learning |e Renyi's entropy and kernel perspectives |f Jose C. Principe |d = 机器学习的信息论方法 |f (美) 何塞·普林西比著 |z chi
- 210 __ |a 北京 |c 世界图书出版公司 |d 2023
- 215 __ |a 526页 |c 图 |d 24cm
- 225 2_ |a 香农信息科学经典 |A xiang nong xin xi ke xue jing dian |i “人工智能的信息论方法”系列
- 320 __ |a 有书目 (第499-515页) 和索引
- 330 __ |a 本书是佛罗里达大学计算神经工程实验室 (CNEL) 在统计信号处理和机器学习的常规领域的研究成果。本书的目的之一就是要把这两个有着如此多共同问题和技术但还没有有效合作的领域联系起来。不同于其他阐述了某特定领域知识的书籍, 本书跨越了工程学 (信号处理) 和统计学 (机器学习) 界限, 挖掘出一个共同主题, 即学习从信息角度看问题, 并强调Renyi's熵的信息概念。本书介绍的基本方法是利用信息论的熵和散度的描述符作为非参数代价函数来设计无监控或监控训练模式下的自适应系统。
- 410 _0 |1 2001 |a 香农信息科学经典 |i “人工智能的信息论方法”系列
- 510 1_ |a 机器学习的信息论方法 |z chi
- 517 1_ |a Renyi's entropy and kernel perspectives
- 606 0_ |a 信息论 |A xin xi lun |x 应用 |x 机器学习 |x 英文
- 701 _1 |a 普林西比 |A pu lin xi bi |g (Principe, Jose C.) |4 著
- 801 _0 |a CN |b WFKJXY |c 20240812
- 905 __ |a WFKJXY |d TP181/400*