编曲与配器教案.docx
- 文档编号:12817495
- 上传时间:2023-04-22
- 格式:DOCX
- 页数:13
- 大小:26.08KB
编曲与配器教案.docx
《编曲与配器教案.docx》由会员分享,可在线阅读,更多相关《编曲与配器教案.docx(13页珍藏版)》请在冰豆网上搜索。
编曲与配器教案
编曲与配器教案
第一章概述
一、编曲
1、编曲的含义
编曲是在作曲之后。
在古典音乐里原本是没有编曲这个概念的,因为所有的作曲家都是自己写好了乐谱,规定了所有乐器的演奏与配合。
但是在演出中和日常的练习时人们发现了更多、更好的表现方法,这时候就出现了编曲,就是在不影响原曲主要旋律和内容的情况对乐曲的表现形式做了更多的拓展。
在现代音乐中,特别是流行音乐中,作曲和编曲往往是两个人,因为很多作曲者只有对旋律的把握和灵感,而编曲者对于怎样体现这个旋律有着更多的技巧。
简单来说,作曲者是给了骨架和支柱,而编曲者则是给了血肉和灵魂。
作为歌曲来讲,编曲是决定一首歌的精神风格及乐器搭配的种类。
换句话说,我们决定一首歌它是快歌、慢歌、摇滚歌曲,还是慢板的舒情歌曲,或是儿歌。
这些构思想法有可能是最初我们在写词作曲时就已经安排好的,这些原素也是早就被决定好的,也可经由编曲者加以发挥而更俱特色。
另一种情形是当词曲创作人本身对编曲的观念不是那么重时,就需要一个编曲者来设想安排,设计出适合他们曲子的风范,通常是由旋律或者歌词中把握歌曲的特色。
2、编曲者应具备的的能力
编曲本身是一门十分复杂的综合性学科,它涵盖了乐理、演奏、作曲、和声
等多学科,作为当今的编曲“精英”还应掌握电脑音乐制作及音频技术方面的知识,关于音频技术和作曲我们在以后的课程中会详细给大家讲解。
二、配器
1、配器的含义
配器是编曲的工作化、落实化。
简单的说就是根据编曲者的构思为歌曲选择什么样的器乐风格、类型进行编配。
实际上,配器这门学科包括乐器法与配器法两大类,乐器法是指对乐器结构、历史、以及性能等的研究,配器法是乐队音乐的实际操作,两门学科实际上是一门。
配器包括管弦乐队和电声乐队的配器。
2、配器的基本知识
由于配器包括两门学科(乐器法和配器法),所以配器主要就是由这两门学科构成。
主要包括:
各种乐器的名称及音域、记谱法、乐器的常规(特殊)演奏技巧局限性、乐器之间的音色混合以及搭配的原则等这是乐器法,配器法包括主旋律的写作、副旋律的写作等。
什么是副旋律?
在音乐进行当中,随着音乐的进行,为了更进一步地发展乐思,有时在主旋律的第二次出现时往往伴随着另外的一个旋律,这个旋律虽然不像主旋律那样明显夺耳,但是却为主旋律增添了不少的色彩,就好象二重唱一样。
这个旋律就叫副旋律。
副旋律也是旋律,是音乐作品不可缺少的有效成分。
但是要写好副旋律,有时比写主旋律还难。
为什么?
因为副旋律的写作依据不单单是和声,而且还需要复调音乐写作的基本训练。
难道就没有一些省事的办法了吗?
答案是肯定的“有”!
只要你认真地学习和声学,能够为自己的作品配制良好的和声进行的话,再认真进行一番自我训练,就可以为歌曲写出好的副旋律。
因为副旋律的技术来源于复调音乐,而理论来源于和声,只要你认真分析你的和声进行,多听好的作品的配器,只要你用心,我想你迟早会写出好的副旋律的。
歌曲伴奏中的副旋律主要是和主旋律形成此起彼伏的对比,使音乐增加活力。
副旋律写作的基本原则:
(1)副旋律的出现是在歌曲主题第二次出现时,目的是为了给音乐进行增加新的活力,提升音乐的感染力。
(2)副旋律音量及出现的频率不能超过主旋律,不能让它喧宾夺主。
(3)副旋律不要和主旋律在相同的音区。
(4)副旋律的演奏在选用乐器上要有特色,应该能够让听众有明显的感觉。
综上所诉,要把“编曲与配器”这门课学好,大家还要下一番功夫,平时要多学、多听、多看、多想、多做。
第二章音频数字、立体声技术
第一节音频数字技术
在当今,几乎所有音乐制作人的编曲配器都是在电脑上完成的,电脑音乐制作系统及音频处理系统已成为音乐制作不可或缺的“武器”,由于我们院已经为大家讲授了电脑音乐制作系统和MIDI制作,那么这里我们只介绍电脑音乐的后期音频处理和立体声技术。
一、声音概述
大家都知道,声音是由机械振动产生的,是一种波。
例如,我们敲击某一个
物体,它会产生振动,从而发出声音。
波动琴弦产生振动,可以发出声音。
单纯的机械振动还不足以产生声音,它必须通过弹性物质(如空气)来传递,形成声波,传入人耳,是人的听觉神经受到触动,才能使人听到声音。
如果没有了传播介质,我们就听不到声音。
所以,声音的本质是一种波,即声波。
声音分为乐音和噪音。
在音乐制作中,我们主要和乐音打交道,但有时在音乐中,噪音会制造特殊的效果,如民族打击乐曲《夜沉沉》、《秦王破阵曲》等。
乐音有一些基本性质,音高、音量、音色和音值。
音高就是人们常说的声音听起来是高是低。
女高音和男低音的差别就很大,连五音不全的人都能感觉出来,这里面最主要的就是音高上的差异。
音高的物理本质是声波振动的频率,频率越高,音高就越高。
频率的单位是Hz(赫兹),一赫兹的含义是每秒钟振动一次。
因此,我们说,女高音的声带比男低音的声带振动的要快。
音乐里的音阶的概念也是由于乐音音高的差异而形成的。
乐器定音用标准音A音的振动频率440Hz,钢琴的中央C音的振动频率为261.63Hz。
人耳的可听声音范围是20Hz—20000Hz,这个范围内的声音称之为可听声,也就是人们常说的“音频”。
低于20Hz的是次声波,高于20000Hz的是超声波。
次声波可以制造杀人武器,超声波可以探测深海的鱼群,但与音乐没什么关系,在数字音频技术里,我们只关心音频。
音量则是人们常说的声音听起来响不响,及声音的强弱。
音量与声波的振幅有关。
振幅越大,声压越高,声音听起来就越响。
但人耳是一个非常复杂的系统,对声音的强弱感觉并不是呈线性的,而是大体上与声压成对数比。
为了适应人类听觉的这一特性,同时也为了计算方便,一般都用声压有效值和声强值的对数来表示声音的强弱,单位是dB(分贝)。
声学研究表明,人对声音强弱的觉察力是有限的。
相当多的人对同一声音信号在其声压级突然变大或变小(不大于3dB)是觉察不出来的,只有那些经过专门训练的音乐工作者才能觉察出1—2dB的声压级突变。
因此在电声工程中常以3dB这个数值来衡量一般电声设备某些性能指标的优劣。
所以在一些音频软件中都有是音频信号增大或减小3dB的命令,为什么不多不少,正好是3dB呢?
就是这个道理。
音色的概念稍复杂一些,同样音高和音量的声音,不同的音色,听起来就会有显著的差别。
比如,用钢琴弹奏一个A音和用小提琴拉奏一个A音,可以很轻易的分辨出其中的不同来,这是由于两个音的音色不同。
音色的不同是由于频率特性和波形包络的不同引起的(包络:
同包络线,是一种轨迹,曲折即时改变各种参数)。
实际上,一个乐器的并不是单纯的波形(正弦波、三角波、方波),而是由基频频率和高频分量(谐波分量)组成。
音高取决于基频频率,而音色取决于高频分量。
上面提到A音的振动频率是440Hz,严格的说,这个频率属于基频的频率。
根据傅里叶的变换定理(*傅里叶:
18世纪法国伟大的数学家,他提出的神奇的变换方法,把现实生活中的问题巧妙的与数学模型结合起来。
傅立叶变换是数字信号处理领域一种很重要的算法,一个连续的信号可以看作是一个个小信号的叠加),声波的谐波分量可以分解为若干个频率和振幅都不同的单独的正弦波。
这样,不管乐器的波形多么复杂,都可以看做是许多不同频率和振幅的正弦波的迭加。
不同的迭加方式可以组合成复杂的波形,从而形成丰富多彩的音色。
合成器,就是基于这个原理来产生波形、音色的。
另外,音色还与波形包络有关。
简单的说,有的音色是有音头的,如钢琴,先有个起因然后逐渐衰减。
有的音色音头不明显,如小提琴,是一种持续的长音。
这种区别,是由包络不同引起的。
所以,在合成器里,改变包络是一种重要的手段。
最后说说人耳的非线性。
这种非线性,是听觉系统在强烈声音到来时的保护性反应,也是音乐中配器法的生理基础。
当A乐器与B乐器一起协同演奏时,听起来的效果可能既不像A乐器也不像B乐器,而是造成另一种新颖的听觉印象,这就是人耳的非线性造成的。
利用这一点,可以配出优美的音色来。
二、数字音频技术
数字音频技术离不开电脑,电脑可以把声音形象化,如显示波形等。
电脑是
一种只能处理二进制的数据机器。
要想让电脑处理音频信号,首先要把声音的波形转换为电脑能够处理的二进制数据,这一步成为声音信号数字化。
数字化之后,还有数字信号的传送、记录、重放以及加工等一套技术,这就是数字音频技术的内容。
把模拟音频信号转换为数字音频信号,在电脑音乐里称为A/D转换。
A/D转换是通过模拟/数字转换器(AnalogtoConverter,简称ADC转换)来进行的。
反过来,数字音频信号最终要转换为模拟信号,才能被人耳听到,这称之为D/A转换。
通常A/D、D/A转换是在计算机声卡上的芯片来实现的,有一些高级音频卡的A/D、D/A转换模块是外置的,可以避免电脑机箱内部的电磁干扰。
A/D转换分为采样、量化、编码三个步骤。
声波是一种随时间连续变化的声波,在不同的时间点,有着不同的振幅。
把声音按一定时间间隔切取,取得一系列的样本值的操作叫采样。
可以说,采样越密集,从采样值恢复出来的波形就越接近原来的波形,采样频率应运而生。
根据采样定理,当采样频率为原始信号频率的两倍以上时,才能精确的重现原波形。
人耳能听到的频率范围是20Hz—20000Hz,所以在CD标准中,制定的采样频率为44.1KHz,可以很完美的重现音频信号。
在DVD标准中,采样频率为96KHz,已经达到了人耳所能分辨的极限。
取得采样之后,要对数据进行量化。
所谓量化,就是把各个时刻的采样值用计算机能识别的二进制来表示。
由于声波的振幅可以是任意值,得到的采样也是随机的,而量化所使用的二进制的位数不可能是无限多位,所以量化后的数值必须是离散的。
如人买鞋,脚不一样大的人,穿的鞋可以是一样的,不可能鞋和脚刚好吻合。
因此,量化后的数值,与原来的采样值是有误差的。
这就涉及到了“量化精度”,量化精度越高,量化值与采样值之间的误差就越小,反映到听觉上就越逼真,越细腻。
反之,就会出现比较明显的量化噪声。
CD标准的量化精度是16位(Bit)即0—216一般的多媒体声卡就是这个标准,DVD的量化精度是24位(Bit)0—224专业声卡可以达到此标准。
由此可见,采样率越高,量化精度越高,得到的数字音频信号就越能反映真实的音频信号。
但是由于音频数据量与采样频率和量化精度成正比,精度越高,所需要的内存和磁盘空间就越大。
经过采样、量化得到的数据,还要进行编码调制,才能被计算机处理。
数字音频技术一般采用PCM编码,即脉冲编码调制(PulseCodeModulation)。
经过采样、量化、编码后得到的数字音频数据,就可以向计算机文件一样编辑、保存,而可以无限制的复制而不失真。
对于音频文件的保存,一分钟CD质量(16Bit/44.1KHz)的立体声音频数据大约需要10M的空间。
有时利用一些压缩格式可以有效的减小音频文件的容量,例如MP3或WMA,经压缩后,大小约是原来的1/10,而且能大致保持原有质量,但要注意,这类压缩格式对原来的音频数据是有损伤的,只能适用一些要求不太高的场合。
PC机里的音频文件后缀为WAV。
为无损音频文件格式。
利用音频软件可以直接把CD唱片的音轨抓取为WAV文件,由于直接是数字传输,所以不存在失真的问题。
当然,也可以把WAV文件可以利用一些刻录软件,刻录成CD。
第二节立体声技术
立体声技术的出现给音乐艺术的创作和表演带来了一场革命。
1933年美国费城交响乐队通过电话线进行立体声音乐传播是最早的立体上技术在音乐上的使用。
之后,各种立体声的家用电器纷纷问世,是的音乐作品的欣赏家庭化、普遍化。
现在,几乎找不到不是立体声的音乐机音乐设备了。
作为立体声技术的延伸和发展还出现了5.1声道、6.1声道甚至7.1声道的环绕立体声技术。
一、立体声与立体声技术的原理
1、立体声的含义
什么是立体声?
比如一个乐队在演奏,听众在感觉到乐声不同的高度、长度、力度和音色的同时,还会感觉到声源的位置、乐队的宽位感、深度感、空间感,这就是立体声,即音乐的立体感。
立体声技术就是通过电子设备重现音乐演奏的立体声,使听者产生临场感。
2、立体声技术的原理
声场的立体化要转化为人的听觉的立体感,主要是靠人的听觉,这是一个十分复杂的生理机制。
(1)双耳效应
人对声音的立体感主要靠双耳。
由于耳朵在头部的两侧,如果声源偏离听者正前方的中轴线,则声源到达双耳的时间与相位、声强与音色都有差异。
虽然这些差异非常小,但听觉器官仍能够将其分辨出来。
时间差是指声音双耳瞬间的时间差别。
时间差对辨别突发声、瞬态声(如不同乐器的演奏和移动着的声源)的方位效果更明显。
连续声虽然到达双耳也存在时间差,然而后到达某一只耳朵的声音会掩盖前面的声音,以致时间差定位效果不明确,所以音乐作品上的长时值持续音容易被听众忽略。
声强差是指声源到达两耳的强弱差别,起作用的通常是较高频率的声音。
声音在传播过程中,如果遇到几何尺寸等于或大于声波波长的障碍物,会对声波起遮蔽作用,在障碍物后面形成声音阴影区,称为遮蔽效应。
遮蔽效应给设计降低噪声电路提供了重要启发,磁带放音中,有这样的听音体会,当音乐节目在连续播放且声音较大时,我们不会听到磁带的本底噪声,可当音乐节目结束(空白段磁带)时,便能感觉到磁带的“咝……”噪声存在。
为了降低噪声对节目声音的影响,提出了信噪比(SN)的概念,即要求信号强度比噪声强度足够的大,这样听音便不会觉得有噪声的存在。
一些降噪系统就是利用掩蔽效应的原理设计而成的。
如果几何尺寸小于声波波长的障碍物,声波可以绕过去,称为绕射效应。
人头直径为20CM左右,由于遮蔽效应,对于频率较高的声波,则无法绕过头部,所以到达被遮蔽的那只耳朵的音强,会比另一只耳朵低许多。
频率越高,声源偏移中轴线越多,声强差就越大。
人脑就根据这个来辨别声源的方位。
遮蔽效应还形成了双耳的音色差。
根据傅里叶的定理,我们知道所有的声波都是多种单一波形的综合。
偏离中轴线的声源,到达一只耳朵(直达区)的声音是原音色,到达另一只耳朵(高频阴影区)的声音,由于一部分单一波形被遮蔽,而使音色发生了变化。
所以,音色差也是判断声源防卫的重要因素。
对于声源远近的位置判断,主要是根据人耳对声音能量损耗的感觉。
一个声音在传播过程中,其能量在不断的损耗。
声源越远,到达双耳的信号就越弱,不仅反映在声强上,而且反映在音色上。
因为声波的复合性,那些振幅小的声波在传播过程中逐渐减弱甚至消失,造成音色差异。
例如,下雨时,近处的雷声又响又亮,远处的则又低又沉,就是这个道理。
这些经验是后天积累的,大脑将这些信息储存并和以后听到的信息进行比较,而得出一个声源远近的判断。
(2)耳廓效应
耳廓效应是双耳效应的补充。
当声音传入人耳朵时,耳廓对声波也有反射作用。
由于耳廓上不同位置向耳道反射,会产生一些具有很短延时的重复声。
对于垂直方向的入射声,重复声的延时量约在20—45us(微秒,10-6)左右对于水平方向的入射声则在2—20us左右。
所以从重复声的延时量的不同,人们就可以判断声音是来自水平面还是垂直面。
此外,如果声音来自后面,那么因为遮蔽效应形成的音色差外,由于耳廓不会反射从后面来的声音,所以不产生重复而得以判断。
3、重现立体声技术的原理
立体声的重现,是依靠电子设备来实现的,主要是充分利用哈斯效应、德·波埃效应和李开试验的结果,来获得高保真的度的重复立体声效果。
(1)哈斯效应
哈斯效应也叫优先效应,它指出:
如果有两个音质、强弱相同的音源(如一对扬声器),如果延迟在5—35ms(毫秒,即1/1000秒),在听觉上两个声源合并为一个,只能感到前面的声源,对滞后的声源感觉好像不存在似的。
如果延迟在30—50ms时,则开始感觉到滞后声源的存在,但声音来向仍由前面的声源来确定。
如果延迟大于50ms是,滞后的声源将成为清晰的回声,听者可以明显的听出两个声源的不同方向。
哈斯效应在室内或室外扩声、布置声场时都应该仔细考虑的一种效应。
作为声源的音箱间分布距离超过17m,便会产生声音重叠,使听音者无法听清声音。
(2)德·波埃(D.Poher)效应
两只相同的声源对称地分布在听音者的正前方,如果声源的音强基本相同,两只扬声器辐射的声强级差为0,到达听音者耳朵的时间差为0,则听音者感觉到声音只有一个,来自正前方的对称轴上,人耳不能区分出两个声源。
如果增加两声源的声强级差,则声源方位(声像)向声音响的那只扬声器偏移,其偏移量大小与声强级差有关。
当声强级大于15dB时,听者会感觉到声音来自声强级大的那只扬声器。
如果两只扬声器的声强级差为0,但两个声源有一些时间差,这时听音者感觉到声像向先到达的那只扬声器方向偏移。
当时间差大于3ms时,声像好像完全来自声音先到达的那只扬声器。
实验表明,声强级差与时间差所引起的效是是类似的,其间可以相互补偿,并且声强级差在15dB以下、时间差在3ms以内时,它们之间呈线性关系,每5dB的声强级差引起的声像偏移相当于两声音引起的时间差1ms的效果,这便是德波埃效应。
这种效应说明了人耳同时听多个声源发声的方位感的有限性,也是立体声放声所要利用的效应。
(2)李开实验
李开试验是对哈斯效应和德·波埃的补充,对左、右声源的声音都能达到听者左右两耳这个交错现象进行详细的描述。
简单的说,李开试验证明:
两个声源的相位相反时,声像可以超出两个声源以外,甚至跳到听音身后。
李开试验还提示,只要适当控制两声源(左、右声道扬声器)的强度、相位,就可以获得一个范围广阔(角度、深度)的声像移动场。
(3)视听转移效应
听觉对声源方位的判断,同视觉对声源防卫的判断有着紧密的联系。
我们都有这样的经验,听觉对声音远近的判断、对两个声源之间距离的判断,都与视觉平时储存于大脑的距离感紧密相连。
例如,在大厅里看电影,明明银幕上演员说话的声音是从侧面的扬声器中传出的,然而,听众仍感觉声源在银幕当中。
视听转移效应在立体声电影、电视和现场立体声传导技术上产生重大的作用,可以使听者产生更具体的声源方位感。
4、音乐厅音响特性
立体声技术是以音乐厅的临场感为基础的。
乐队在广场和音乐厅演奏时,相比之下音乐厅的音响要丰满的多,这是音乐厅音响特性在起作用。
(1)直达声
声源直接到达听众席的声音信号,是我们感受声源本身特征的基本依据。
是传达声音的音高、音长、强弱、音色的主导信号,听者是以直达声来判定声源的方向的。
(2)反射声
声音经过建筑物反射后进入人耳的声音叫反射声,是声源经过舞台墙面、顶棚反射到听者耳朵的信号,声音在传播中遇到障碍物时,一部分进入障碍物被其吸收,一部分被障碍物反射回去。
它比直达声通常延时20—50ms,在这个延时范围内,反射声对直达声其润色的作用,所以又称有用反射声。
反射声还形成了听者对音乐厅的空间感。
所以,改变这个延时,听者就会感到音乐厅的空间在变化。
如果,延时声超过50ms时,就会变为回声,将影响听者对声源方位的判断。
(3)混响声
由音乐厅的墙壁、顶棚等多次、无规则的反射,形成了混响声。
合适的混响声可以使声音具有环境感,有利于提高声音的丰满度,同时会使听者感到声音把自己包围起来。
混响声有一个建立过程,由乐器发出声音至引起混响振幅达到最大值,大约在30—50ms之间,低频少一些,高频多一些,这是混响的重要特征之一。
由于声能经多次反射后,会逐渐被墙面所吸收,所以,混响声是逐渐减弱的。
混响声有最大值到比它低60dB所需的时间,称为混响时间。
混响声对声音的影响颇大。
混响时间短了,声音发干;长了,声音发混,听不出层次。
混响的最佳值为1.8—2.2ms之间。
二、立体声录音技术
立体声录音,是双耳效应、耳廓效应和哈斯效应、德·波埃效应、李开试验等立体声原理在录音技术上的具体应用。
1、单声道录音与立体声录音
传统的录音模式也采用多只麦克风,录音信号也是多轨的,回放时也用数个扬声器,但是听者仍然觉得声音来自一点,这是因为传统的录音模式是单声道的,其技术原理是钥孔效应的缘故。
钥孔效应,其含义是指听音人并非坐在音乐厅的观众席上听音乐演奏,而是坐在休息室通过“钥匙孔”来听听内的乐队演奏。
在这种情形下,听音人即使受过严格的训练,也只能听出音乐竖的形象(乐音的音高、强弱、时值、音色和前后层次),而听不出音乐横的形象(声源的方位、乐队的宽位感、空间感),所以只有平面的形象而不是立体声。
立体声的录音是双通道或是多通道的录音模式,运用哈斯效应、德·波埃效应、李开试验原理,准确的将原立体声场的各种信号记录下来,再通过两组或多组扬声器重放,使听者产生立体声场的音乐临场感。
立体声音乐是在单声道音乐的基础上发展起来的,所以单声道录音模式的许多技术原则并不能全部废除。
2、立体声录音技术
立体声录音技术主要是由拾音、录音、后期合成加工三个环节而成。
拾音技术是要求把乐队的音响准确的传达给录音机,包括拾音器(话筒)所需的类型、数量以及摆放位置等。
录音时将拾音器(话筒)拾得的声音信号传递给调音台,录音师通过监听设备(监听耳机或音箱)对声音进行调整,包括平衡左右声道的音量、调整不合理音色、需要时加入混响声、反射声或回声等。
后期加工合成是将声音信号在加工。
这时,要看作品的要求和加工设备的技术能力,如母带处理。
录音方式包括以下三种:
(1)合录式
传统的录音方式,要求有一个音响特性较佳的录音室(棚)。
拾音时,乐队按照舞台演出的位置排列。
为了使音质更好,可以将某些乐器(如打击乐)隔开。
乐队在指挥的统一要求下演奏,音响信号由一对或多对拾音器(话筒)拾取。
合录式的技术重点在与拾音和录音两个环节。
在理解音乐作品的艺术够思之后,录音师可以对乐队的各个声部的排列位置进行调整,并通过调音台来突出或减弱某些声部,输入混响,以增加音乐作品的感染力。
合录式适用于录制大型交响乐队、管弦乐队、吹奏乐队,合唱和歌剧等作品。
合录式属于一次性录音,优点是后期的工作量较小,缺点是后期加工的幅度受限制,所以合录式对演奏者的要求比较高。
(2)分录式
又称多声道录音工艺。
分录式有两重含义,其一,大录音棚变为若干个小录音间,将乐队分为若干各组用录音间隔开,每个录音间根据乐器的多少安置一个或多个拾音器。
录音间在声学结构上采用吸音材料,把混响时间控制在0.4—0.5ms,不要反射声。
其二,乐队录音不要求一次完成,可以每一次录一部分乐器。
例如,四把小提琴录两次可产生八把小提琴的效果。
如果一个乐手掌握多种乐器的演奏,那么一个人就可以录制整个乐队的演奏了。
分录式不需要乐队指挥,乐手们根据闪光节拍器来控制速度。
分录式的工作重点在与后期合成加工。
录音工作完成后,录音师根据作品需要细致的使用各种后期手法修饰每个乐器单元。
与合录式相比,分录式具有明显的优越性。
首先,它采用录音分离的方式,从而大大提高各乐器音响的传真度,而且噪声小;其次,后期制作由更大的可塑性;第三,录音师在后期加工时可以随意调节各个乐器声部的位置;第四,对乐手的水平要求不是很高。
所以分录式所制作的立体声节目水平更高。
(3)混录式
合录式与分录式结合的方式。
录音时部分乐器(打击乐器、铜管乐器等)封闭隔离,另一些电声乐器(电吉他、电贝司、合成器等)直接向调音台输入音频信号,其他乐器按照合录式录制。
混合式录制时可以用现场指挥。
电声乐队常用的一种方式。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 编曲 配器 教案