- 积分
- 312
- 在线时间
- 313 小时
- 最后登录
- 2023-6-14
- 阅读权限
- 50
- 精华
- 0
- UID
- 832848
- 帖子
- 307
- 精华
- 0
- 经验
- 312 点
- 金钱
- 296 ¥
- 注册时间
- 2017-5-24
|
传统r2r解码除了要解决电阻误差引起的非线性和过零失真问题,还必须面对bit开关的不同步引起的glitches噪声问题。
glitch是体现在时间轴上的一种失真,是动态的。本坛前几年有一个超长的1704 diy贴,我至少看过两遍。那位楼主无论是理论或实践能力都造诣颇深,他发明了一种de-glitch的专利,用来降低开关不同步对音质的劣化。
最后他是选择了NOS的方案。
所以我在思考如下问题:
如过梯形网络中的电子开关,它们的通断是一个固定的时间,则:glitches持续的过程也应是一个固定的时间;
那么:当取样率比较低时,则glitch过程时间相对于稳定信号输出时间也较短
反之,当取样率比较高时,则长
于是,glitch失真虽然是固定的,但对于不同的采样率,它对音质的劣化程度,是有高下的。
当dac工作于nos模式下,glitch的影响最轻。
当然我没有经过相关的测量,这只是我的一个想法。但我直觉真相就是这样子。欢迎大家指正和讨论。
|
|