华信教育资源网
自适应滤波器原理(第五版)(英文版)
丛   书   名: 国外电子与通信教材系列
作   译   者:(加)Simon Haykin(西蒙 ? 赫金) 出 版 日 期:2017-07-01
出   版   社:电子工业出版社 维   护   人:马岚 
书   代   号:G0322510 I S B N:9787121322518

图书简介:

本书是自适应信号处理领域的一本经典教材。全书共17章,系统全面、深入浅出地讲述了自适应信号处理的基本理论与方法,充分反映了近年来该领域的新理论、新技术和新应用。内容包括:随机过程与模型、维纳滤波器、线性预测、最速下降法、随机梯度下降法、最小均方(LMS)算法、归一化LMS自适应算法及其推广、分块自适应滤波器、最小二乘法、递归最小二乘(RLS)算法、鲁棒性、有限字长效应、非平衡环境下的自适应、卡尔曼滤波器、平方根自适应滤波算法、阶递归自适应滤波算法、盲反卷积,以及它们在通信与信息系统中的应用。
您的专属联系人更多
关注 评论(0) 分享
配套资源 图书内容 样章/电子教材 图书评价
  • 配 套 资 源
    图书特别说明:由于成本考虑,本书不作为参考书赠送。如果确有授课教材选用的需求,可将详细情况发送给本书专属联系人,我们将进一步沟通并酌情处理。

    本书资源

    会员上传本书资源

  • 图 书 内 容

    内容简介

    本书是自适应信号处理领域的一本经典教材。全书共17章,系统全面、深入浅出地讲述了自适应信号处理的基本理论与方法,充分反映了近年来该领域的新理论、新技术和新应用。内容包括:随机过程与模型、维纳滤波器、线性预测、最速下降法、随机梯度下降法、最小均方(LMS)算法、归一化LMS自适应算法及其推广、分块自适应滤波器、最小二乘法、递归最小二乘(RLS)算法、鲁棒性、有限字长效应、非平衡环境下的自适应、卡尔曼滤波器、平方根自适应滤波算法、阶递归自适应滤波算法、盲反卷积,以及它们在通信与信息系统中的应用。

    图书详情

    ISBN:9787121322518
    开 本:16开
    页 数:908
    字 数:1653.0

    本书目录

    Contents
    Background and Preview 1
    1. The Filtering Problem 1
    2. Linear Optimum Filters 4
    3. Adaptive Filters 4
    4. Linear Filter Structures 6
    5. Approaches to the Development of Linear Adaptive Filters 12
    6. Adaptive Beamforming 13
    7. Four Classes of Applications 17
    8. Historical Notes 20
    Chapter 1 Stochastic Processes and Models 30
    1.1 Partial Characterization of a Discrete-Time Stochastic Process 30
    1.2 Mean Ergodic Theorem 32
    1.3 Correlation Matrix 34
    1.4 Correlation Matrix of Sine Wave Plus Noise 39
    1.5 Stochastic Models 40
    1.6 Wold Decomposition 46
    1.7 Asymptotic Stationarity of an Autoregressive Process 49
    1.8 Yule–Walker Equations 51
    1.9 Computer Experiment: Autoregressive Process of Order Two 52
    1.10 Selecting the Model Order 60
    1.11 Complex Gaussian Processes 63
    1.12 Power Spectral Density 65
    1.13 Properties of Power Spectral Density 67
    1.14 Transmission of a Stationary Process Through a Linear Filter 69
    1.15 Cramér Spectral Representation for a Stationary Process 72
    1.16 Power Spectrum Estimation 74
    1.17 Other Statistical Characteristics of a Stochastic Process 77
    1.18 Polyspectra 78
    1.19 Spectral-Correlation Density 81
    1.20 Summary and Discussion 84
    Problems 85
    Chapter 2 Wiener Filters 90
    2.1 Linear Optimum Filtering: Statement of the Problem 90
    2.2 Principle of Orthogonality 92
    2.3 Minimum Mean-Square Error 96
    2.4 Wiener–Hopf Equations 98
    2.5 Error-Performance Surface 100
    2.6 Multiple Linear Regression Model 104
    2.7 Example 106
    2.8 Linearly Constrained Minimum-Variance Filter 111
    2.9 Generalized Sidelobe Cancellers 116
    2.10 Summary and Discussion 122
    Problems 124
    Chapter 3 Linear Prediction 132
    3.1 Forward Linear Prediction 132
    3.2 Backward Linear Prediction 139
    3.3 Levinson–Durbin Algorithm 144
    3.4 Properties of Prediction-Error Filters 153
    3.5 Schur–Cohn Test 162
    3.6 Autoregressive Modeling of a Stationary Stochastic Process 164
    3.7 Cholesky Factorization 167
    3.8 Lattice Predictors 170
    3.9 All-Pole, All-Pass Lattice Filter 175
    3.10 Joint-Process Estimation 177
    3.11 Predictive Modeling of Speech 181
    3.12 Summary and Discussion 188
    Problems 189
    Chapter 4 Method of Steepest Descent 199
    4.1 Basic Idea of the Steepest-Descent Algorithm 199
    4.2 The Steepest-Descent Algorithm Applied to the Wiener Filter 200
    4.3 Stability of the Steepest-Descent Algorithm 204
    4.4 Example 209
    4.5 The Steepest-Descent Algorithm Viewed as a Deterministic Search Method 221
    4.6 Virtue and Limitation of the Steepest-Descent Algorithm 222
    4.7 Summary and Discussion 223
    Problems 224
    Chapter 5 Method of Stochastic Gradient Descent 228
    5.1 Principles of Stochastic Gradient Descent 228
    5.2 Application 1: Least-Mean-Square (LMS) Algorithm 230
    5.3 Application 2: Gradient-Adaptive Lattice Filtering Algorithm 237
    5.4 Other Applications of Stochastic Gradient Descent 244
    5.5 Summary and Discussion 245
    Problems 246
    Chapter 6 The Least-Mean-Square (LMS) Algorithm 248
    6.1 Signal-Flow Graph 248
    6.2 Optimality Considerations 250
    6.3 Applications 252
    6.4 Statistical Learning Theory 272
    6.5 Transient Behavior and Convergence Considerations 283
    6.6 Efficiency 286
    6.7 Computer Experiment on Adaptive Prediction 288
    6.8 Computer Experiment on Adaptive Equalization 293
    6.9 Computer Experiment on a Minimum-Variance Distortionless-Response
    Beamformer
    302
    6.10 Summary and Discussion 306
    Problems 308
    Chapter 7 Normalized Least-Mean-Square (LMS) Algorithm and Its
    Generalization 315
    7.1 Normalized LMS Algorithm: The Solution to a Constrained Optimization Problem 315
    7.2 Stability of the Normalized LMS Algorithm 319
    7.3 Step-Size Control for Acoustic Echo Cancellation 322
    7.4 Geometric Considerations Pertaining to the Convergence Process for Real-Valued
    Data 327
    7.5 Affine Projection Adaptive Filters 330
    7.6 Summary and Discussion 334
    Problems 335
    Chapter 8 Block-Adaptive Filters 339
    8.1 Block-Adaptive Filters: Basic Ideas 340
    8.2 Fast Block LMS Algorithm 344
    8.3 Unconstrained Frequency-Domain Adaptive Filters 350
    8.4 Self-Orthogonalizing Adaptive Filters 351
    8.5 Computer Experiment on Adaptive Equalization 361
    8.6 Subband Adaptive Filters 367
    8.7 Summary and Discussion 375
    Problems 376
    Chapter 9 Method of Least-Squares 380
    9.1 Statement of the Linear Least-Squares Estimation Problem 380
    9.2 Data Windowing 383
    9.3 Principle of Orthogonality Revisited 384
    9.4 Minimum Sum of Error Squares 387
    9.5 Normal Equations and Linear Least-Squares Filters 388
    9.6 Time-Average Correlation Matrix ≥ 391
    9.7 Reformulation of the Normal Equations in Terms of Data Matrices 393
    9.8 Properties of Least-Squares Estimates 397
    9.9 Minimum-Variance Distortionless Response (MVDR) Spectrum Estimation 401
    9.10 Regularized MVDR Beamforming 404
    9.11 Singular-Value Decomposition 409
    9.12 Pseudoinverse 416
    9.13 Interpretation of Singular Values and Singular Vectors 418
    9.14 Minimum-Norm Solution to the Linear Least-Squares Problem 419
    9.15 Normalized LMS Algorithm Viewed as the Minimum-Norm Solution to an
    Underdetermined Least-Squares Estimation Problem 422
    9.16 Summary and Discussion 424
    Problems 425
    Chapter 10 The Recursive Least-Squares (RLS) Algorithm 431
    10.1 Some Preliminaries 431
    10.2 The Matrix Inversion Lemma 435
    10.3 The Exponentially Weighted RLS Algorithm 436
    10.4 Selection of the Regularization Parameter 439
    10.5 Updated Recursion for the Sum of Weighted Error Squares 441
    10.6 Example: Single-Weight Adaptive Noise Canceller 443
    10.7 Statistical Learning Theory 444
    10.8 Efficiency 449
    10.9 Computer Experiment on Adaptive Equalization 450
    10.10 Summary and Discussion 453
    Problems 454
    Chapter 11 Robustness 456
    11.1 Robustness, Adaptation, and Disturbances 456
    11.2 Robustness: Preliminary Considerations Rooted in H∞ Optimization 457
    11.3 Robustness of the LMS Algorithm 460
    11.4 Robustness of the RLS Algorithm 465
    11.5 Comparative Evaluations of the LMS and RLS Algorithms from the Perspective of
    Robustness
    470
    11.6 Risk-Sensitive Optimality 470
    11.7 Trade-Offs Between Robustness and Efficiency 472
    11.8 Summary and Discussion 474
    Problems 474
    Chapter 12 Finite-Precision Effects 479
    12.1 Quantization Errors 480
    12.2 Least-Mean-Square (LMS) Algorithm 482
    12.3 Recursive Least-Squares (RLS) Algorithm 491
    12.4 Summary and Discussion 497
    Problems 498
    Chapter 13 Adaptation in Nonstationary Environments 500
    13.1 Causes and Consequences of Nonstationarity 500
    13.2 The System Identification Problem 501
    13.3 Degree of Nonstationarity 504
    13.4 Criteria for Tracking Assessment 505
    13.5 Tracking Performance of the LMS Algorithm 507
    13.6 Tracking Performance of the RLS Algorithm 510
    13.7 Comparison of the Tracking Performance of LMS and RLS Algorithms 514
    13.8 Tuning of Adaptation Parameters 518
    13.9 Incremental Delta-Bar-Delta (IDBD) Algorithm 520
    13.10 Autostep Method 526
    13.11 Computer Experiment: Mixture of Stationary and Nonstationary Environmental
    Data 530
    13.12 Summary and Discussion 534
    Problems 535
    Chapter 14 Kalman Filters 540
    14.1 Recursive Minimum Mean-Square Estimation for Scalar Random Variables 541
    14.2 Statement of the Kalman Filtering Problem 544
    14.3 The Innovations Process 547
    14.4 Estimation of the State Using the Innovations Process 549
    14.5 Filtering 555
    14.6 Initial Conditions 557
    14.7 Summary of the Kalman Filter 558
    14.8 Optimality Criteria for Kalman Filtering 559
    14.9 Kalman Filter as the Unifying Basis for RLS Algorithms 561
    14.10 Covariance Filtering Algorithm 566
    14.11 Information Filtering Algorithm 568
    14.12 Summary and Discussion 571
    Problems 572
    Chapter 15 Square-Root Adaptive Filtering Algorithms 576
    15.1 Square-Root Kalman Filters 576
    15.2 Building Square-Root Adaptive Filters on the Two Kalman Filter Variants 582
    15.3 QRD-RLS Algorithm 583
    15.4 Adaptive Beamforming 591
    15.5 Inverse QRD-RLS Algorithm 598
    15.6 Finite-Precision Effects 601
    15.7 Summary and Discussion 602
    Problems 603
    Chapter 16 Order-Recursive Adaptive Filtering Algorithm 607
    16.1 Order-Recursive Adaptive Filters Using Least-Squares Estimation:
    An Overview 608
    16.2 Adaptive Forward Linear Prediction 609
    16.3 Adaptive Backward Linear Prediction 612
    16.4 Conversion Factor 615
    16.5 Least-Squares Lattice (LSL) Predictor 618
    16.6 Angle-Normalized Estimation Errors 628
    16.7 First-Order State-Space Models for Lattice Filtering 632
    16.8 QR-Decomposition-Based Least-Squares Lattice (QRD-LSL) Filters 637
    16.9 Fundamental Properties of the QRD-LSL Filter 644
    16.10 Computer Experiment on Adaptive Equalization 649
    16.11 Recursive (LSL) Filters Using A Posteriori Estimation Errors 654
    16.12 Recursive LSL Filters Using A Priori Estimation Errors with Error Feedback 657
    16.13 Relation Between Recursive LSL and RLS Algorithms 662
    16.14 Finite-Precision Effects 665
    16.15 Summary and Discussion 667
    Problems 669
    Chapter 17 Blind Deconvolution 676
    17.1 Overview of Blind Deconvolution 676
    17.2 Channel Identifiability Using Cyclostationary Statistics 681
    17.3 Subspace Decomposition for Fractionally Spaced Blind Identification 682
    17.4 Bussgang Algorithm for Blind Equalization 696
    17.5 Extension of the Bussgang Algorithm to Complex Baseband Channels 713
    17.6 Special Cases of the Bussgang Algorithm 714
    17.7 Fractionally Spaced Bussgang Equalizers 718
    17.8 Estimation of Unknown Probability Distribution Function of Signal Source 723
    17.9 Summary and Discussion 727
    Problems 728
    Epilogue 732
    1. Robustness, Efficiency, and Complexity 732
    2. Kernel-Based Nonlinear Adaptive Filtering 735
    Appendix A Theory of Complex Variables 752
    A.1 Cauchy–Riemann Equations 752
    A.2 Cauchy’s Integral Formula 754
    A.3 Laurent’s Series 756
    A.4 Singularities and Residues 758
    A.5 Cauchy’s Residue Theorem 759
    A.6 Principle of the Argument 760
    A.7 Inversion Integral for the z-Transform 763
    A.8 Parseval’s Theorem 765
    Appendix B Wirtinger Calculus for Computing Complex Gradients 767
    B.1 Wirtinger Calculus: Scalar Gradients 767
    B.2 Generalized Wirtinger Calculus: Gradient Vectors 770
    B.3 Another Approach to Compute Gradient Vectors 772
    B.4 Expressions for the Partial Derivatives 0f>0z and 0f>0z* 773
    Appendix C Method of Lagrange Multipliers 774
    C.1 Optimization Involving a Single Equality Constraint 774
    C.2 Optimization Involving Multiple Equality Constraints 775
    C.3 Optimum Beamformer 776
    Appendix D Estimation Theory 777
    D.1 Likelihood Function 777
    D.2 Cramér–Rao Inequality 778
    D.3 Properties of Maximum-Likelihood Estimators 779
    D.4 Conditional Mean Estimator 780
    Appendix E Eigenanalysis 782
    E.1 The Eigenvalue Problem 782
    E.2 Properties of Eigenvalues and Eigenvectors 784
    E.3 Low-Rank Modeling 798
    E.4 Eigenfilters 802
    E.5 Eigenvalue Computations 804
    Appendix F Langevin Equation of Nonequilibrium Thermodynamics 807
    F.1 Brownian Motion 807
    F.2 Langevin Equation 807
    Appendix G Rotations and Reflections 809
    G.1 Plane Rotations 809
    G.2 Two-Sided Jacobi Algorithm 811
    G.3 Cyclic Jacobi Algorithm 817
    G.4 Householder Transformation 820
    G.5 The QR Algorithm 823
    Appendix H Complex Wishart Distribution 830
    H.1 Definition 830
    H.2 The Chi-Square Distribution as a Special Case 831
    H.3 Properties of the Complex Wishart Distribution 832
    H.4 Expectation of the Inverse Correlation Matrix ≥–1(n) 833
    Glossary 834
    Text Conventions 834
    Abbreviations 837
    Principal Symbols 840
    Bibliography 846
    Suggested Reading 861
    Index 879
    展开

    前     言

    前    言
    新旧版本比较
    本书新版本(第五版)对旧版本(第四版)进行了大量的修订。主要修改如下除这里所罗列的修改外, 还包括散布在其他章节的许多修改。例如, 第6章增加了关于LMS算法的最优性考虑和统计效率的新内容, 第10章引入了关于RLS算法统计效率的新内容, 第14章新增了关于信息滤波算法的独特特性和Fisher信息等内容。
    1.引入了全新的第5章关于随机梯度下降法的内容。
    2.根据朗之万(Langevin)函数及相应的布朗运动, 修改了第6章(旧版本第5章)中最小均方(LMS)的统计学习理论。
    3.引入了全新的第11章关于鲁棒性的内容。
    4.在第13章后半部引入非平稳环境下自适应的新内容, 并将其应用于增量Delta-Bar-Delta(IDBD)算法和自动步长方法。
    5.在附录B和附录F中分别引入关于微积分及朗之万函数的新内容。
    6.更新了参考文献, 增列了“建议阅读文献”。
    7.删除了旧版本中“自适应IIR滤波器”和关于复数神经网络的“反向传播学习”两章。
    本书新版要点
    自适应滤波器是统计信号处理中的一个重要组成部分。它可对未知统计环境或非平稳环境下的各种信号处理问题, 提供一种十分吸引人的解决方案, 并且其性能通常远优于用常规方法设计的固定滤波器。此外, 自适应滤波器还能够提供非自适应方法所不能提供的信号处理能力。因此, 自适应滤波器已经成功应用于诸如通信、 控制、 雷达、 声呐、 地震和生物医学工程等许多领域。
    本书写作目的
    本书写作的主要目的是研究各种线性自适应滤波器的数学原理。所谓自适应性是根据输入数据调整滤波器中的自由参数(系数)来实现的, 从而使得自适应滤波器实际上是非线性的。我们说自适应滤波器是“线性”的, 指的是如下含义:
    无论何时滤波器的输入-输出映射都服从叠加原理, 在任何特定的时刻, 而且在任意特定时刻滤波器的参数都是固定的。
    线性自适应滤波问题不存在唯一的解。但存在由各种递归算法所表示的“一套工具”, 每一工具给出它所拥有的期望特性。本书就提供了这样一套工具。
    在背景方面, 假设读者已学过概率论、 数字信号处理等大学本科的导论性课程及通信和控制系统等先修课程。
    本书组成结构
    本书绪论部分从一般性地讨论自适应滤波器的运算及其不同形式开始, 并以其发展历史的注释作为结束。其目的是想通过该课题的丰富历史, 向那些对该领域感兴趣并有志潜心钻研的读者追溯这些研究动机的由来。
    本书主体内容共17章, 具体安排如下。
    1)随机过程与模型, 这方面内容在第1章介绍, 着重讲解平稳随机过程的部分特征(如二阶统计描述)。它是本书其余部分内容的主要基础。
    2)维纳滤波器理论及其在线性预测中的应用(第2章和第3章), 维纳滤波器在第2章中介绍, 它定义了平稳环境下的最佳线性滤波器, 而且提供了线性自适应滤波器的一个基本框架。第3章讲述了线性预测理论, 着重讲述了前向预测和后向预测及其变种, 并以线性预测在语音编码中的应用作为该章的结束。
    3)梯度下降法, 在第4章和第5章中讲述。第4章介绍了一种固定型的古老最优化技术(即所谓最速下降法)的基础; 该方法提供了维纳滤波器波的一种迭代演变框架。作为直接对比, 第5章介绍了随机梯度下降法的基本原理; 该方法非常适合处理非平稳环境, 而且通过最小均方(LMS, least-mean-square)和梯度自适应格型(GAL, gradient adaptive lattice)算法阐明了其适用性。
    4)LMS算法族, 涵盖了第6章、 第7章、 第8章三章, 具体如下:
    ●  第6章讨论了LMS算法的各种不同应用, 详尽阐述了小步长统计理论。这一新的理论来源于非平衡热力学的朗之万方程, 这为LMS算法的瞬态过程提供了一个比较准确的评估。计算机仿真证明了该理论的有效性。
    ●  第7章和第8章扩展了传统的LMS算法族。这一点是通过详细论述归一化LMS算法、 仿射投影自适应滤波算法、 频域和子带自适应LMS滤波算法来实现的。仿射投影算法可看做介于LMS算法与递归最小二乘(RLS)算法的中间算法。频域和子带自适应LMS滤波算法将在后面讨论。
     5)最小二乘法和RLS算法, 分别在第9章和第10章介绍。第9章论述了最小二乘法, 它可看做源于随机过程的维纳滤波器的确定性副本。在最小二乘法中, 输入数据是以块(block-by-block)为基础进行处理的。过去因其数值计算复杂性而被忽视的分块方法正日益引起人们的关注, 这得益于数字计算机技术的不断进步。第10章在最小二乘法的基础上设计了RLS算法, 并详尽阐述了其瞬态过程的统计理论。 
    6)鲁棒性、 有限字长效应和非平稳环境下的自适应问题, 分别在第11章、 第12章和第13章介绍。具体如下:
    ●  第11章介绍了H∞理论, 它为鲁棒性提供数学基础。在这一理论下, 只要所选的步长参数很小, LMS算法在H∞的意义下就是鲁棒的; 但在面对内在或外在干扰的非平稳环境时, RLS算法的鲁棒性不如LMS算法。本章也讨论了确定性鲁棒性与统计有效性(效率)之间的折中问题。
    ●  第5~10章的线性自适应滤波算法理论以无限精度运算为基础。然而, 当用数字形式实现任何自适应滤波算法时, 将产生由有限精度运算所引起的有限字长效应。第12章讨论了LMS和RLS算法数字实现时的有限字长效应。
    ●  第13章扩展了LMS和RLS算法理论。这是通过评价和比较运行于非稳定环境(设其为马尔可夫模型)下LMS和RLS算法的性能来实现的。这一章的第二部分主要研究两个新算法:其一为增量delta-bar-delta(IDBD)算法, 它由传统LMS算法的步长参数的向量化实现; 其二为自动步长法, 它以IDBD算法为基础, 通过实验构成一个自适应步骤, 以避免手动调整步长参数。
    7)卡尔曼滤波理论及相关的自适应滤波算法, 这些内容在第14章、 第15章、 第16章中介绍, 具体如下:
    ●  第14章介绍了RLS算法。实际上, RLS算法是著名的卡尔曼滤波的一个特例。突出状态的概念是卡尔曼滤波的一个重要特点。因此, 很好地理解卡尔曼滤波理论(也包括将平稳环境下的维纳滤波器作为其特例)是十分重要的。此外, 应注意到协方差滤波和信息滤波算法是卡尔曼滤波器的变种。
    ●  第15章在协方差滤波和信息滤波的基础上导出了它们各自的平方根形式。具体而言, 就是引入前阵列和后阵列的思想, 从而促使一类使用吉文斯(Givens)旋转脉动阵列的新的自适应滤波算法的产生。
    ●  第16章介绍了另一类新的阶递归最小二乘格型(LSL)滤波算法, 该算法也建立在协方差型和信息算法型卡尔曼滤波器的基础上。为了实现这类算法, 需要利用一种数值鲁棒的所谓QR分解方法。阶递归LSL算法的另一个有吸引力的特点是其计算复杂度遵循线性规律。但是, 这些算法的所有优点都是以数学和编码上的高度复杂性为代价的。
    8)无监督(自组织)自适应, 即盲反卷积, 在本书的最后一章即第17章介绍。这里所谓的“盲”表示在完成自适应滤波的过程中不需要期望响应的协助。这个艰巨任务是采用基于如下概念的模型完成的:
    ●  子空间分解, 在本章第一部分介绍, 提供了一个灵巧的数学上解决盲均衡问题的方法。为了解决这个问题, 我们使用通信系统中固有的循环平稳性来寻找信道输入的二阶统计量, 以便用无监督方式均衡信道。
    ●  高阶统计量, 在本章第二部分介绍, 它可以是显式的或者隐式的。这部分内容致力于导出一类盲均衡算法, 统称为Bussgang类盲均衡算法。本章第二部分还包含一类以源于最大熵法的信息理论方法为基础的新的盲均衡算法。
    本书还包含一个后记, 它分为两个部分:
    ●  后记第一部分回顾前面章节中介绍的内容, 最后总结了鲁棒性、 有效性(效率)和复杂性, 并且说明了LMS和RLS算法在这三个根本性的重要工程问题上所起的作用。
    ●  后记第二部分包括以核函数(它起着计算单元隐层的作用)为基础的一类新的非线性自适应滤波算法。这些核函数来源于再生核希尔伯特空间(RKHS), 而且这里给出的内容源自机器学习文献中已被很好研究的那些资料。特别是, 后记将注意力聚焦于LMS滤波, 包括传统LMS算法在其中所起的关键性作用; 而且简要讨论了自适应滤波中这个相对较新的方法的属性和限制。
    本书还包含如下内容的附录:
    ●  复变函数
    ●  沃廷格(Wirtinger)微分
    ●  拉格朗日(Lagrange)乘子法
    ●  估计理论
    ●  特征值分析
    ●  朗之万函数
    ●  旋转和反射
    ●  复数维萨特(Wishart)分布
    在本书的不同部分, 应用了由这些附录中给出的基本思想和方法。
    辅助材料
    ●  本书还附有一个术语表, 由一系列定义、 记号、 约定、 缩略词和书中涉及的主要符号组成。
    ●  本书中引用的所有出版物都汇编在参考文献中。每篇参考文献包括作者姓名和出版年份。本书也包括了一个建议阅读部分, 增加了许多其他参考文献以便读者进一步阅读。
    例题、 习题与计算机实验 
    本书各章包括大量例题, 用来说明书中讨论的概念和理论。
    本书还包括许多计算机实验, 用来说明LMS和RLS算法的基础理论和应用。这些实验可以帮助读者比较这两种线性自适应滤波算法的不同性能。
    本书每一章(除了绪论外)以习题作为结束, 这出于以下两点考虑:
    ●  帮助读者更深刻地理解该章所包含的内容。
    ●  激励读者扩展该章所讨论的原理和方法。
    题解手册
    本书还配有对第1~17章所有习题详细解答的题解手册。选用本书作为教材的教师可直接向出版商申请题解手册。教辅申请方式请参见书末的“教学支持说明”。
    所有计算机实验的MATLAB代码, 可在网站http//www.pearsonhighered.com/haykin/上获得。 也可登录华信教育资源网(http//www.hxedu.com.cn)免费注册下载。
    两个值得注意的符号
    习惯上, -1的平方根一般用斜体符号j表示, 而微分算子(用于微分和积分中)一般用斜体符号d表示。然而, 在实际中, 这些术语既表示算子又表示符号, 各自按照不同的方式行使功能, 因此使用斜体符号表示它们并不正确。此外, 斜体符号j和d也经常用做指数来表示其他事项, 从而增加了潜在混淆的可能性。因此, 在本书中, 用正体j和d分别表示-1的平方根和微分算子。
    使用说明
    本书适合作为自适应信号处理方面的研究生课程的教材。在这个范围内, 本书内容的组织为读者选择适合这一主题的感兴趣内容提供了很大的灵活性。
     我们希望本书对工业界的研究者和工程师, 以及从事与自适应滤波器理论和应用有关的工作的人员也是有用的。
    
    Simon HaykinAncaster, Ontario, Canada
    展开

    作者简介

    本书暂无作者简介
  • 样 章 试 读
  • 图 书 评 价 我要评论
华信教育资源网