1.使用MAX做出3D部分,确定好每个分镜头,和镜头的运动
2.使用合成软件,合成分层渲染的3D图像(combustion AfterFX )
3.编辑音乐,一般使用(COOLEDIT Sound Forge 6.0)
4.剪辑影片合成音乐(Premiere6.5)
5.通过输出设备输出到广播及的磁带,格式多样一般有(SONY公司的Betacam sp, Betacam IMX, Betacam DVW 松下公司的Dvcpr
电视片头的制作流程(以湖南卫视\"新闻12点\"为例):
1.首先设计好片头的基本风格,色调和分镜头。
2.在3DSMAX中建立标志的模型。用line勾线做出标志然后将其bevel,调整参数,建立如图场景模型。
3.材质。给标志分配好ID号的制作多维材质,主体为兰色反光材质,倒边为白金属。
4.用标志做多个适合场景运动的背景,生成后在合成软件中将其模糊。
5.根据设计好的方案制作好场景,在标志周围加上沿路径转动的英文字母
6.调整好灯光和摄象机,设置好每一个分镜头
7.制作long字上的假质量光(渲染速度快易控制)使用Gradient(渐变)做透明贴图来制作
8.渲染设置
9.合成剪辑输出
10.使用premiere把图象和声音合成输出,以 Matrox DigiSuited的板卡为例,输出Matrox M-JPEG的文件格式:尺寸720/576 每秒25帧,象素比是1.067 声音是4800Hz 16Bit-Stereo,最后输出到Betacam磁带上。
11.新闻12点的片头就这样做完了。 三维GIF动画制作
GIF动画以其动感的造型和它的小巧被人们所青睐,因此在网上及课件里被大量应用。但一般的软件只能制作出一些二维的GIF动画。最近笔者发现了一个能制作仿三维的GIF动画的软件——Efect3D。大家可能非常熟悉以文字特效见长的COOL3D吧,而Efect3D则是专门做物体特效的。Effect3D完全摈弃了传统3D程序的复杂操作,并且提供了最优质的3D物体效果与动画,只要点选功能中的缩图即可立即套用效果,大大地增加您的工作效率。好,闲话少说,让我们一起来领略一下它的风采吧!
下载后直接运行Efect3D.exe,在出现的窗口中直接单击“Continue”按钮,出现图1所示的窗口。单击“Sample
project”按钮,就会出现一个供你选择的图片框。我们从中选择“小丑”这个项目,然后单击“OK”按钮。在出现的窗口中选择Clay效果,立刻,我们就可以看到该效果被赋予
了这个“小丑”,如图2所示。单击图2中的“向上”和“向下”这两个按钮,还可以看到很多渲染效果。
接下来,我们单击图2中的“Select background”按钮,在出现的窗口中有“Sample background”和“Load\"
background”两项。在“Sample background”这一项中你可以单击这个按钮,选择软件给你准备好的一些背景。还可以通过“Load
background”来调出你自己的一些图片来作为背景。 单击图2中的“adjust environment
parameters”(调整环境参数)这个按钮,在出现的窗口中通过“滑块”来调整图像的亮度和对比度。 单击“Select
animation”按钮,在出现的窗口中我们可以设置动画的帧数(长度)和每秒播放的帧数(速率),单击“Standard
animation”按钮,在出现的窗口中有很多动作效果供我们选择(很类似于COOL3D哟)。选择一种效果之后,单击“OK”按钮。单击“小人”形状的按钮,就可以把这种效果施加在“小丑”上,然后有一个慢慢形成效果的过程。
当你觉得效果可以的话,就单击“Export”按钮,这时在窗口中出现“Export as animator”,“Export as
image”,“Export as BMP sequence”,“Save project ”几个按钮。要想输出GIF动画,请单击“Export as
animator”按钮。在保存文件的对话框中,你可以选择这个动画是否需要透明,然后给定图像名字,保存。
另外,如果觉得软件中自带的模型少的话,请单击图1中的“User project”按钮,调入你自己的模型。好了,发挥你的想像力,创造出更多的3D作品吧。 三维动漫影片的后期制作
动画作品在最初制作完毕后,动画是以单一片段的形式分别独立存在的,并非象我们在电影或影片等媒体上看到的那样,是一部完整的作品,各个片段经过剪接或者特效处理等许多工作后,才能成为一部完整的作品。这种在影片结束后才进行的编辑操作,就是所谓的
影片后期制作过程。用于影片后期制作的软件有很多,如adobe的preimere或者micromedia的director等都是用来进行影片后期制作的。在3d studio max中,也有影片后期处理的功能,主要就是在video post窗口中进行。要调用此工具,可从菜单栏中rendering的下拉菜单中选取video post命令,调出video post窗口,对图像或是动画进行各项功能的设定。下面我们主要以3d studio max中的video post工具为例来完成对影片的后期制作处理,使之达到我们的要求。
如上图所示,上面这张图片是在3d studio max中制作完成的,在这张图片中,茶壶是在3dmax中建造的,背景图像是一张风景图片,而前景的图片框是一个带alpha通道的图片框。
那么上面这张效果图是如何制作出来的呢,这就涉及到了图像合成技术,那么什么是图像合成技术呢?所谓的图像合成技术就是将两个以上的影像重叠在一起,然后通过透明的设定,使彼此都能显现出来。
在3d studio max的 video post工具中提供了许多种影像合成方式,主要使用alpha通道,alpha通道是指在24位真彩色图像上增加8位图像资料,用来描述256级灰度,以控制256级透明度的值,当两个图像合成到一起时,第二张图像中的alpha资料决定如何将这张图像合成到第一张图像上,产生新的合成颜色,3d studio max根据不同图像输出格式 可以产生包含alpha通道的32位图像文件,合成影像时,alpha通道最主要功能之一就是抗剧齿的能力,在合成边缘上自动产生渐层效果,产生过渡的中间色,消除剧齿。 三维游戏制作基本常识
很多flash3d初学者都是从flash或平面绘制转型的,对三维方面的常识的确理解甚少,即使是天天玩三维游戏的人。虽然这些信息对一些三维经验丰富的朋友是显然得不能再显然的东西,但写这一篇对某一些新上手的朋友是有必要的。
建模
除非简单几何体,任何复杂一点的模型和贴图位置,都只能靠其他三维软件导入,这不光是flash3d的常识,也是游戏制作的基本常识。
甚至很多朋友会以为既然用flash是可以„画‟图形的,那么用flash3d就能直接„画‟三维模型。
三维模型之所以叫做„建‟模,就一定和„画‟模有本质的区别。模型就像“一个灯笼框,外面粘着各种图画”一样,立体的„灯笼框‟肯定是不能简单的用笔„画‟出来的。
建模至少包括两个步骤:
1 模型的建立,每个顶点的空间位置的确定。
2 确定模型每个顶点对应的贴图位置,以便能够正确的贴图
而这两个步骤,人类不靠建模max,maya,xsi等等建模工具是无法完成的。
理论上来说,只要知道一个模型的所有顶点和对应的贴图位置,就能不靠三维软件也能建模,但问题就是稍复杂点的模型至少都是几百个点到几万个点,人类不靠三维软件是根本无法知道这些顶点和对应贴图的位置的。
具体如何导入外部模型,请参考《超简易papervision3D基础 第三篇 导入外部模型》->点击去教程
具体如何建漂亮的模型和贴图则是美工工作,网上有很多教程,和flash3d关系不大。电视剧难看,把电视抱着啃没什么用,对吧。
引擎
„引擎‟的定义现在看来已经包括三种:
1) 图形引擎
最 简单的理解就是一个成像的东西。把三维的数据变成图像,放映给观众。就像一个电视机一样,把接收到的数据信息变成图像。 这是我们最早称作„引擎‟的东西。它的目的就是减少游戏编程者的工作,因为图形编程的工作量很庞大的,避免每次重复开发,和让游戏编程者尽量把精力集中在 游戏本身的逻辑和规则的开发,而不是怎么显示图形上。现在很经典的游戏图形引擎比如DOOM,虚幻等等。Pv3d,away3d等等都是 ActionScript写的图形引擎。
2) 动力引擎
个人认为动力引擎最初的目的应该是“编程人员向动画人员发起的挑战”。以前的三维游戏,动态全是靠动画人员制作出来。有些简单游戏使用动画人员又有些不必要,简单动作希望能用程序模拟出来。
动力引擎的好处是每次模拟出来的动态随受力不同会有改变,这是动画师无法达到的,因为动画师做出什么动作就是什么,无法随机变化,头发,布料,高处下落,吹飞,拖扯都是动力引擎的强项。但弊端是无法制作出复杂的动态,比如说跳肚皮舞(=_=好冷)
所以现在的大作,一般都是动画师和动力引擎共同实现,动力引擎处理一些随机的动态,动画师(和动态捕捉)处理人物的基本动作。
游 戏界hover这个三维动力引擎是非常有名的。Box2d是一个可以说小巧完美的flash的二维动力引擎,用它可以做一些非常有趣的小游戏。Wow则是 我们flash3d的三维动力引擎,比起前两者还是非常不完善的。不知道以后会否有hover的支持,(shockwave是可以用hover的)
3) 游戏引擎
比 如说我们现在说的„《上古卷轴》引擎‟的意思就是说能够轻松做出自制任务的引擎,这种引擎制作者根本不用考虑游戏的规则,逻辑判断,或者图形效果等等,大 部分精力完全专著于制作任务就是了。也就是说,制作者根本对基本游戏规则没法修改,只能根据这个规则添加或改变内容。所以实际上这个东西以前是不叫做„引 擎‟的,只是现在大家都喜欢这么称而已。
什么是三维
从物理概念来说,所有屏幕上显示的东西,都不是三维的,都是二维的。只有我们这些能被摸到的东西才是„真的三维‟。我们能触摸到屏幕,但触摸不到屏幕里显示的美女,对吧。所以屏幕是三维的,显示的美女是二维,即使这个在现实中存在的美女真人是三维的。
但我们平常所说的„三维‟,实际上一种在平面上模拟三维的成像技术,它除了„左右上下‟的移动,还多了„看起来像‟是„里外‟的移动(其实就是缩放)。
和„看起来是否立体,玩起来是否立体‟没有任何关系。
举例:《红侠Joe》和《勇者斗恶龙7》都是卡通渲染,看起来像是二维画的,但都是„三维游戏‟
举例:DC上的《斑鸠》和PS2上的《魂斗罗》都是只能平面的移动飞机和人物的游戏,但他们都是„三维游戏‟
“三维”的最大不清楚的地方是,区分“即时(实时)演算三维”和“渲染播放三维”
其实,从本质上来说,这两个的区别是„即时(实时)演算三维‟的渲染一张图的时间只有0.0几秒,而„渲染播放三维‟渲染一张图的时间需要很多个小时。
另一个区分方法就是“是否有交互的可能性”
举 例:最终幻想10,12有很多玩家不能交互对白过场动画(不是指那种漂亮的渲染CG的过场动画),这些都是„三维‟的,虽然玩家不能交互,但有„交互的可 能性‟,就是说制作者愿意,玩家是可以对对白场景进行各种旋转操作的。而那种漂亮的渲染CG是没有„交互的可能性‟的,不管制作者愿不愿意。
电影,三维动画片都是用„渲染播放三维‟,里面有生动真实的光影,毛发,凹凸等等。„渲染播放三维‟的画面是可以无限完美的,但它的弊端是无法立即做出交互式的反应。导演开始渲染了什么镜头,观众就必须看什么画面。电影院没有观众自己能旋转镜头的说法吧。
但因为最终他们保存和播放都是以位图格式,所以我们都按游戏的观点,他们都是„二维‟的。所有三维电影都是游戏定义里的„二维‟,所以游戏开场动画这种不能交互的图像都是„二维‟的。
三维游戏中,玩家是需要立即交互反应的。我们不可能按一个前进键,然后傻坐着等1个月渲染出这个角色做出前进的动作吧。我们需要按前进键时,角色能立即作出动画上的反应。也就是说,如果渲染速度达不到0.0几秒渲染一张图,玩家就会觉得„卡‟。
正因为要达到这个速度,所以游戏画面虽然越来越华丽,但游戏角色始终比电影角色看起来要简陋些的原因
但随着图形技术和硬件的不断进化,几十年后这两个称呼也许会统一起来。
另:我们很多游戏制作和产品演示中,有一种把三维模型先渲染出几个方向存起来的方法。
这些都是„二维‟的,即使模型看起来是三维的,也可以旋转。它的优势是对图形运算需求很低。弊端是旋转只能有开始渲染出来的方向,没渲染的角度就没有,旋转不流畅。
举例:游戏里暗黑破坏神1,2,和现在很多汽车,服装展示。 三维程序/游戏制作基本常识
飞机和人物的游戏,但他们都是„三维游戏‟
“三维”的最大不清楚的地方是,区分“即时(实时)演算三维”和“渲染播放三维”
其实,从本质上来说,这两个的区别是„即时(实时)演算三维‟的渲染一张图的时间只有0.0几秒,而„渲染播放三维‟渲染一张图的时间需要很多个小时。
另一个区分方法就是“是否有交互的可能性”
举 例:最终幻想10,12有很多玩家不能交互对白过场动画(不是指那种漂亮的渲染CG的过场动画),这些都是„三维‟的,虽然玩家不能交互,但有„交互的可 能性‟,就是说制作者愿意,玩家是可以对对白场景进行各种旋转操作的。而那种漂亮的渲染CG是没有„交互的可能性‟的,不管制作者愿不愿意。
电影,三维动画片都是用„渲染播放三维‟,里面有生动真实的光影,毛发,凹凸等等。„渲染播放三维‟的画面是可以无限完美的,但它的弊端是无法立即做出交互式的反应。导演开始渲染了什么镜头,观众就必须看什么画面。电影院没有观众自己能旋转镜头的说法吧。
但因为最终他们保存和播放都是以位图格式,所以我们都按游戏的观点,他们都是„二维‟的。所有三维电影都是游戏定义里的„二维‟,所以游戏开场动画这种不能交互的图像都是„二维‟的。
三维游戏中,玩家是需要立即交互反应的。我们不可能按一个前进键,然后傻坐着等1个月渲染出这个角色做出前进的动作吧。我们需要按前进键时,角色能立即作出动画上的反应。也就是说,如果渲染速度达不到0.0几秒渲染一张图,玩家就会觉得„卡‟。
正因为要达到这个速度,所以游戏画面虽然越来越华丽,但游戏角色始终比电影角色看起来要简陋些的原因
但随着图形技术和硬件的不断进化,几十年后这两个称呼也许会统一起来。
另:我们很多游戏制作和产品演示中,有一种把三维模型先渲染出几个方向存起来的方法。这些都是„二维‟的,即使模型看起来是三维的,也可以旋转。它的优势是对图形运算需求很低。弊端是旋转只能有开始渲染出来的方向,没渲染的角度就没有,旋转不流畅。
因篇幅问题不能全部显示,请点此查看更多更全内容