RT,视频时长比较长的,开始的ti7什么时候开始会缓冲,然后会播一段游戏视频,类

查看: 4358|回复: 55
这次是真的,荒火 PK 视频= =RT
登录论坛,更多趣闻美图好福利!
才可以下载或查看,没有帐号?
有一段视频 中间我有失误 就是拿着锤子追人 一直按仙魔 那个事因为换武器CD 有个间隔 我以为换过来锤子了 没注意自己手里拿的还是刀&&
[ 本帖最后由 拾憶丶 于
17:45 编辑 ]
物是人非,事事休啊
天下3官方论坛欢迎你(づ ̄3 ̄)づ
看官 们 ! 看完了也给点意见 跟回复。&&顺便也给点分了什么的 让我出个头像
天下3官方论坛欢迎你(づ ̄3 ̄)づ
手机党占个座…帮你顶下
天下3官方论坛欢迎你(づ ̄3 ̄)づ
400RMB甩号--3个月没玩了---
天下3官方论坛欢迎你(づ ̄3 ̄)づ
那边我拿沙发了 - -!这边有分分没,也论述了
天下3官方论坛欢迎你(づ ̄3 ̄)づ
楼主的操作还挺好~ 对手那个就不敢恭维了, 也许的买的号也不一定。&&
你们2位的追电感觉不是很高~ 看了视频~
天下3官方论坛欢迎你(づ ̄3 ̄)づ
我也来帮顶下
天下3官方论坛欢迎你(づ ̄3 ̄)づ
为什么么你们喜欢对冲着用截啊,那不是很容易被对方晕倒吗?开始的时候用截很容易被仙魔到吧,只是个人看法
天下3官方论坛欢迎你(づ ̄3 ̄)づ
LZ的方向键是什么,应该不是WASD吧,T Y 7距离很远,好像开W Q飞星。随便请教下键位#fadai
天下3官方论坛欢迎你(づ ̄3 ̄)づ
回复 6# 的帖子
,.他我感觉还行 仔细看的话 他反应很快得
天下3官方论坛欢迎你(づ ̄3 ̄)づ
回复 9# 的帖子
= = 我指头比较长。。。QE WASD 都是方向 我感觉 PK 方向最重要。
天下3官方论坛欢迎你(づ ̄3 ̄)づ
回复 8# 的帖子
1 你仔细看我们截完都是 反向跑 很难被仙魔到 2 你也仔细看了 我两都是玄套。第二段视频&&我金玉玩 灭世打他三锤子还没敲死。 也就是 就算开局的截 他仙魔我&&伤害不会太高 而且 他仙魔玩 也跑不开&&除非他仙魔玩 直接就跑什么招都不用
天下3官方论坛欢迎你(づ ̄3 ̄)づ
[video]/player.php/sid/XMzA1MDAyMjg0/v.swf[/video]
[video]/player.php/sid/XMzA1MDc0NTI4/v.swf[/video]
天下3官方论坛欢迎你(づ ̄3 ̄)づ
回复 6# 的帖子
我暴走 590 、。。你感觉呢。
天下3官方论坛欢迎你(づ ̄3 ̄)づ
那家伙 控制方向够菜
天下3官方论坛欢迎你(づ ̄3 ̄)づ
擦 看了第二个视屏&&锤子他就不会用&&应该是买号玩的
天下3官方论坛欢迎你(づ ̄3 ̄)づ
3境界锤子不会用?
天下3官方论坛欢迎你(づ ̄3 ̄)づ
回复 16# 的帖子
... 一直有句话&&叫做眼高手低&&我知道你不是评论我&&是说那个HH&&那我站在我的观点上告诉你 那个HH 玩的不错 我赢他 有一半是因为 我等级高 抵抗他减速了晕了有些&&你说他不会玩。,这个我不抬赞同 也可能给在你看来他这操作就是新手& &如果可以的话 你可以跟他 交流下 我提供号
哥们 看我的账号
天下3官方论坛欢迎你(づ ̄3 ̄)づ
两个都不怎么样,是事实
天下3官方论坛欢迎你(づ ̄3 ̄)づ
回复 19# 的帖子
... 顶楼上、
天下3官方论坛欢迎你(づ ̄3 ̄)づ
杭州网易雷火科技有限公司版权所有 &请完成以下验证码
查看: 2886|回复: 9
优酷播放1080p的视频 播放一段时间后缓冲中画面会变成一个叹号
本帖最后由 兔bug 于
12:07 编辑
变成叹号那么其他正在播放的flash播放器也都变成了叹号 但是缓冲的速度还在 怎么回事呢
_115459.jpg (6.23 KB, 下载次数: 0)
11:55 上传
还有,乐视播放1080P 如果暂停一段时间再点击播放有可能播放画面中会有停顿 隔几秒卡一下子 首先带宽速度上是没问题的 而且如果乐视卡顿了 那其他正在放的片子再点击播放的话也会同样出现隔几秒卡一下的情况 这种情况只有重新刷新才能解决
变成叹号是Flash本身崩溃了吧。最近我好像很少见到了,你用的是最新版吗。
卡顿也许是正在内存交换吧,是不是内存不够,被压到页面文件里了。
Flash爆内存了,刷新就行
37以后我才发现有这个问题
乐视一样的,我是偶而快进很多次才会遇到几秒卡顿的情况,然后刷新就好了,要不你换最新的FLASH试试。。。
Flash爆内存了,刷新就行
37以后我才发现有这个问题
我还以为是我用了内存盘当缓存的问题 以前都没发觉
变成叹号是Flash本身崩溃了吧。最近我好像很少见到了,你用的是最新版吗。
卡顿也许是正在内存交换吧,是 ...
难道是firefox的内存回收机制造成的?
崩溃了 几年前遇见过 现在不怎么会了
神奇的:Mozilla/5.0 (Windows NT 6.1; WOW64; rv:38.0) Gecko/ Firefox/38.0&&(zh-CN)
——& && && &
崩溃了 几年前遇见过 现在不怎么会了
真正的崩溃也有崩溃的情况 这种就不知道是怎么回事
难道是firefox的内存回收机制造成的?
感觉跟Firefox没多大关系,是Flash内部崩溃了吧,插件外部崩溃Firefox会知道。
是最新版吗,以前版本经常遇到这问题。
我也这样过
Copyright & KaFan & All Rights Reserved.
Powered by Discuz! X3.3( 苏ICP备号 ) GMT+8,今天看啥 热点:
最简单的视音频播放示例3:Direct3D播放YUV,RGB(通过Surface),yuvsurface
上一篇文章记录了GDI播放视频的技术。打算接下来写两篇文章记录Direct3D(简称D3D)播放视频的技术。Direct3D应该Windows下最常用的播放视频的技术。实际上视频播放只是Direct3D的“副业”,它主要用于3D游戏制作。当前主流的游戏几乎都是使用Direct3D制作的,例如《地下城与勇士》,《穿越火线》,《英雄联盟》,《魔兽世界》,《QQ飞车》等等。使用Direct3D可以用两种方式渲染视频:Surface和Texture。使用Surface相对来说比使用Texture要简单一些,但是不如使用Texture灵活。鉴于使用Surface更加容易上手,本文记录使用Direct3D中的Surface显示视频的技术。下一篇文章再记录使用Direct3D中的Texture显示视频的技术。&Direct3D简介下面下简单记录一下背景知识。摘录修改了维基上的一部分内容(维基上这部分叙述貌似很不准确…):Direct3D(简称:D3D)是微软公司在Microsoft Windows系统上开发的一套3D绘图API,是DirectX的一部份,目前广为各家显示卡所支援。1995年2月,微软收购了英国的Rendermorphics公司,将RealityLab 2.0技术发展成Direct3D标准,并整合到Microsoft Windows中,Direct3D在DirectX 3.0开始出现。后来在DirectX 8.0发表时与DirectDraw编程介面合并并改名为DirectX Graphics。Direct3D与Windows GDI是同层级组件。它可以直接调用底层显卡的功能。与OpenGL同为电脑绘图软件和电脑游戏最常使用的两套绘图API。抽象概念Direct3D的抽象概念包括:Devices(设备),Swap Chains(交换链)和Resources(资源)。Device(设备)用于渲染3D场景。例如单色设备就会渲染黑白图片,而彩色设备则会渲染彩色图片。Device目前我自己了解的有以下2类(还有其他类型,但不是很熟):HAL(Hardware Abstraction Layer):支持硬件加速的设备。在所有设备中运行速度是最快的,也是最常用的。Reference:模拟一些硬件还不支持的新功能。换言之,就是利用软件,在CPU对硬件渲染设备的一个模拟。每一个Device至少要有一个Swap Chain(交换链)。一个Swap Chain由一个或多个Back Buffer Surfaces(后台缓冲表面)组成。渲染在Back Buffer中完成。此外,Device包含了一系列的Resources(资源),用于定义渲染时候的数据。每个Resources有4个属性:Type:描述Resource的类型。例如surface, volume, texture, cube texture, volume texture, surface texture, index buffer 或者vertex buffer。Usage:描述Resource如何被使用。例如指定Resource是以只读方式调用还是以可读写的方式调用。Format:数据的格式。比如一个二维表面的像素格式。例如,D3DFMT_R8G8B8的Format表明了数据格式是24 bits颜色深度的RGB数据。Pool:描述Resource如何被管理和存储。默认的情况下Resource会被存储在设备的内存(例如显卡的显存)中。也可以指定Resource存储在系统内存中。渲染流水线(rendering pipeline)Direct3D API定义了一组Vertices(顶点), Textures(纹理), Buffers(缓冲区)转换到屏幕上的流程。这样的流程称为Rendering Pipeline(渲染流水线),它的各阶段包括:Input Assembler(输入组装):从应用程序里读取vertex数据,将其装进流水线。Vertex Shader(顶点着色器):对每个顶点属性进行着色。每次处理一个顶点,比如变换、贴图、光照等。注意这个地方可能需要自己编程。Geometry Shader(几何着色器): Shader Model 4.0引进了几何着色器,处理点、线、面的几何坐标变换。此处我自己还不是很了解。PS:上述处理完后的数据可以理解为以下图片。即包含顶点信息,但不包含颜色信息。Stream Output(流输出):将Vertex Shader和Geometry Shader处理完成的数据输出给使用者。Rasterizer(光栅化): 把算完的顶点转成像素,再将像素(pixels)输出给Pixel Shader。这里也可执行其他工作,比如像素数据的切割,插值等。PS:光栅化的过程可以理解为下图。即把顶点转换成像素。Pixel Shader(像素着色器):对每个像素进行着色。注意这个地方可能需要自己编程。Output Merger(输出混合):整合各种不同的数据,输出最后结果。视频显示的基础知识在记录Direct3D的视频显示技术之前,首先记录一下视频显示的基础知识。我自己归纳总结了以下几点知识。1. 三角形在Direct3D中经常会出现“三角形”这个概念。这是因为在3D图形渲染中,所有的物体都是由三角形构成的。因为一个三角形可以表示一个平面,而3D物体就是由一个或多个平面构成的。比如下图表示了一个非常复杂的3D地形,它们也不过是由许许多多三角形表示的。因此我们只要指定一个或多个三角形,就可以表示任意3D物体。2. 后台缓冲表面,前台表面,交换链,离屏表面后台缓冲表面和前台表面的概念总是同时出现的。简单解释一下它们的作用。当我们进行复杂的绘图操作时,画面可能有明显的闪烁。这是由于绘制的东西没有同时出现在屏幕上而导致的。“前台表面”+“后台缓冲表面”的技术可以解决这个问题。前台表面即我们看到的屏幕,后台缓冲表面则在内存当中,对我们来说是不可见的。每次的所有绘图操作不是在屏幕上直接绘制,而是在后台缓冲表面中进行,当绘制完成后,需要的时候再把绘制的最终结果显示到屏幕上。这样就解决了上述的问题。实际上,上述技术还涉及到一个“交换链”(Swap Chain)的概念。所谓的“链”,指的是一系列的表面组成的一个合集。这些表面中有一个是前台表面(显示在屏幕上),剩下的都是后台缓冲表面。其实,简单的交换链不需要很多表面,只要两个就可以了(虽然感觉不像“链”)。一个后台缓冲表面,一个前台表面。所谓的“交换”,即是在需要呈现后台缓冲表面中的内容的时候,交换这两个表面的“地位”。即前台表面变成后台缓冲表面,后台缓冲表面变成前台表面。如此一来,后台缓冲表面的内容就呈现在屏幕上了。原先的前台表面,则扮演起了新的后台缓冲表面的角色,准备进行新的绘图操作。当下一次需要显示画面的时候,这两个表面再次交换,如此循环往复,永不停止。此外,还有一个离屏表面。离屏表面是永远看不到的表面(所谓“离屏”),它通常被用来存放位图,并对其中的数据做一些处理。本文介绍的例子中就用到了一个离屏表面。通常的做法是把离屏表面上的位图复制到后台缓冲表面,后台缓冲表面再显示到前台表面。安装DirectX SDK使用Direct3D开发之前需要安装DirectX SDK。安装没有难度,一路“Next”即可。Microsoft DirectX SDK (June 2010)下载地址:/en-us/download/details.aspx?id=6812使用VC进行开发的时候,需要在项目的“属性”对话框中配置头文件和库:头文件配置:C/C++-&常规-&附加包含目录库文件配置:(a)链接器-&常规-&附加库目录。(b)链接器-&输入-&附加依赖项(填写一个d3d9.lib)编程的时候,添加头文件后即可使用:#include &d3d9.h&D3D视频显示的流程有关Direct3D的知识的介绍还有很多,在这里就不再记录了。正如那句俗话:“Talk is cheap, show me the code.”,光说理论还是会给人一种没有“脚踏实地”的感觉,下文将会结合代码记录Direct3D中使用Surface渲染视频的技术。使用Direct3D的Surface播放视频一般情况下需要如下步骤:1. 创建一个窗口(不属于D3D的API)2. 初始化1) 创建一个Device&2) 基于Device创建一个Surface(离屏表面)3. 循环显示画面1) 清理2) 一帧视频数据拷贝至Surface3) 开始一个Scene4) Surface数据拷贝至后台缓冲表面5) 结束Scene6) 显示(后台缓冲表面-&前台表面)下面结合Direct3D播放YUV/RGB的示例代码,详细分析一下上文的流程。1. 创建一个窗口(不属于D3D的API)建立一个Win32的窗口程序,就可以用于Direct3D的显示。程序的入口函数是WinMain(),调用CreateWindow()即可创建一个窗口。这一步是必须的,不然Direct3D绘制的内容就没有地方显示了。此处不再详述。2. 初始化1) 创建一个Device这一步完成的时候,可以得到一个IDirect3DDevice9接口的指针。创建一个Device又可以分成以下几个详细的步骤:(a) 通过 Direct3DCreate9()创建一个IDirect3D9接口。获取IDirect3D9接口的关键实现代码只有一行:IDirect3D9 *m_pDirect3D9 = Direct3DCreate9( D3D_SDK_VERSION );IDirect3D9接口是一个代表我们显示3D图形的物理设备的C++对象。它可以用于获得物理设备的信息和创建一个IDirect3DDevice9接口。例如,可以通过它的GetAdapterDisplayMode()函数获取当前主显卡输出的分辨率,刷新频率等参数,实现代码如下。D3DDISPLAYMODE d3dDisplayM
lRet = m_pDirect3D9-&GetAdapterDisplayMode( D3DADAPTER_DEFAULT, &d3dDisplayMode );由代码可以看出,获取的信息存储在D3DDISPLAYMODE结构体中。D3DDISPLAYMODE结构体中包含了主显卡的分辨率等信息:/* Display Modes */
typedef struct _D3DDISPLAYMODE
} D3DDISPLAYMODE;也可以用它的GetDeviceCaps()函数搞清楚主显卡是否支持硬件顶点处理,实现的代码如下。 D3DCAPS9 d3
lRet=m_pDirect3D9-&GetDeviceCaps(D3DADAPTER_DEFAULT,D3DDEVTYPE_HAL,&d3dcaps);
int hal_vp = 0;
if( d3dcaps.DevCaps & D3DDEVCAPS_HWTRANSFORMANDLIGHT ){
// yes, save in ‘vp’ the fact that hardware vertex
// processing is supported.
hal_vp = D3DCREATE_HARDWARE_VERTEXPROCESSING;
}由代码可以看出,获取的设备信息存储在D3DCAPS9结构体中。D3DCAPS9定义比较长包含了各种各样的信息,不再列出来。从该结构体的DevCaps字段可以判断得出该设备是否支持硬件顶点处理。(b) 设置D3DPRESENT_PARAMETERS结构体,为创建Device做准备。接下来填充一个D3DPRESENT_PARAMETERS结构的实例。这个结构用于设定我们将要创建的IDirect3DDevice9对象的一些特性,它的定义如下。typedef struct _D3DPRESENT_PARAMETERS_
BackBufferW
BackBufferH
BackBufferF
BackBufferC
D3DMULTISAMPLE_TYPE MultiSampleT
MultiSampleQ
D3DSWAPEFFECT
EnableAutoDepthS
AutoDepthStencilF
/* FullScreen_RefreshRateInHz must be zero for Windowed mode */
FullScreen_RefreshRateInHz;
PresentationI
} D3DPRESENT_PARAMETERS;D3DPRESENT_PARAMETERS这个结构体比较重要。详细列一下它每个参数的含义:BackBufferWidth:后台缓冲表面的宽度(以像素为单位)。BackBufferHeight:后台缓冲表面的高度(以像素为单位)。BackBufferFormat:后台缓冲表面的像素格式(例如:32位像素格式为D3DFMT:A8R8G8B8)。BackBufferCount:后台缓冲表面的数量,通常设为“1”,即只有一个后备表面。MultiSampleType:全屏抗锯齿的类型,显示视频没用到,不详细分析。MultiSampleQuality:全屏抗锯齿的质量等级,显示视频没用到,不详细分析。SwapEffect:指定表面在交换链中是如何被交换的。支持以下取值: *D3DSWAPEFFECT_DISCARD:后台缓冲表面区的东西被复制到屏幕上后,后台缓冲表面区的东西就没有什么用了,可以丢弃了。 *D3DSWAPEFFECT_FLIP: 后台缓冲表面拷贝到前台表面,保持后台缓冲表面内容不变。当后台缓冲表面大于1个时使用。 *D3DSWAPEFFECT_COPY: 同上。当后台缓冲表面等于1个时使用。一般使用D3DSWAPEFFECT_DISCARD。hDeviceWindow:与设备相关的窗口句柄,你想在哪个窗口绘制就写那个窗口的句柄Windowed:BOOL型,设为true则为窗口模式,false则为全屏模式EnableAutoDepthStencil:设为true,D3D将自动创建深度/模版缓冲。AutoDepthStencilFormat:深度/模版缓冲的格式Flags:一些附加特性FullScreen_RefreshRateInHz:刷新率,设定D3DPRESENT_RATE_DEFAULT使用默认刷新率PresentationInterval:设置刷新的间隔,可以用以下方式: *D3DPRENSENT_INTERVAL_DEFAULT,则说明在显示一个渲染画面的时候必要等候显示器刷新完一次屏幕。例如显示器刷新率设为80Hz的话,则一秒最多可以显示80个渲染画面。 *D3DPRENSENT_INTERVAL_IMMEDIATE:表示可以以实时的方式来显示渲染画面。下面列出使用Direct3D播放视频的时候D3DPRESENT_PARAMETERS的一个最简单的设置。//D3DPRESENT_PARAMETERS Describes the presentation parameters.
D3DPRESENT_PARAMETERS d3
ZeroMemory( &d3dpp, sizeof(d3dpp) );
d3dpp.Windowed = TRUE;
d3dpp.SwapEffect = D3DSWAPEFFECT_DISCARD;
d3dpp.BackBufferFormat = D3DFMT_UNKNOWN;(c) 通过IDirect3D9的CreateDevice ()创建一个Device。最后就可以调用IDirect3D9的CreateDevice()方法创建Device了。CreateDevice()的函数定义如下:HRESULT CreateDevice(
UINT Adapter,
D3DDEVTYPE DeviceType,
HWND hFocusWindow,
DWORD BehaviorFlags,
D3DPRESENT_PARAMETERS *pPresentationParameters,
IDirect3DDevice9** ppReturnedDeviceInterface
);其中每个参数的含义如下所列:Adapter:指定对象要表示的物理显示设备。D3DADAPTER_DEFAULT始终是主要的显示器适配器。DeviceType:设备类型,包括D3DDEVTYPE_HAL(Hardware Accelerator,硬件加速)、D3DDEVTYPE_SW(SoftWare,软件)。hFocusWindow:同我们在前面d3dpp.hDeviceWindow的相同BehaviorFlags:设定为D3DCREATE_SOFTWARE_VERTEXPROCESSING(软件顶点处理)或者D3DCREATE_HARDWARE_VERTEXPROCESSING(硬件顶点处理),使用前应该用D3DCAPS9来检测用户计算机是否支持硬件顶点处理功能。pPresentationParameters:指定一个已经初始化好的D3DPRESENT_PARAMETERS实例ppReturnedDeviceInterface:返回创建的Device下面列出使用Direct3D播放视频的时候CreateDevice()的一个典型的代码。IDirect3DDevice9 *m_pDirect3DD
D3DPRESENT_PARAMETERS d3
m_pDirect3D9-&CreateDevice( D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL,hwnd,
D3DCREATE_SOFTWARE_VERTEXPROCESSING,
&d3dpp, &m_pDirect3DDevice );2) 基于Device创建一个Surface通过IDirect3DDevice9接口的CreateOffscreenPlainSurface ()方法即可创建一个Surface(离屏表面。所谓的“离屏”指的是永远不在屏幕上显示)。CreateOffscreenPlainSurface ()的函数定义如下所示:HRESULT CreateOffscreenPlainSurface(UINT width,
UINT height,
D3DFORMAT format,
D3DPOOL pool,
IDirect3DSurface9 ** result,
HANDLE * unused
);其中每个参数的含义如下所列:Width:离屏表面的宽。Height:离屏表面的高。Format:离屏表面的像素格式(例如:32位像素格式为D3DFMT_A8R8G8B8)Pool:D3DPOOL定义了资源对应的内存类型,例如如下几种类型。D3D3POOL_DEFAULT: 默认值,表示存在于显卡的显存中。D3D3POOL_MANAGED:由Direct3D自由调度内存的位置(显存或者缓存中)。D3DPOOL_SYSTEMMEM: 表示位于内存中。Result:返回创建的Surface。Unused:还未研究。下面给出一个使用Direct3D播放视频的时候CreateTexture()的典型代码。该代码创建了一个像素格式为YV12的离屏表面,存储于显卡的显存中。IDirect3DDevice9 * m_pDirect3DD
IDirect3DSurface9 *m_pDirect3DSurfaceR
m_pDirect3DDevice-&CreateOffscreenPlainSurface(
lWidth,lHeight,
(D3DFORMAT)MAKEFOURCC('Y', 'V', '1', '2'),
D3DPOOL_DEFAULT,
&m_pDirect3DSurfaceRender,
NULL);创建Surface完成之后,初始化工作就完成了。3. 循环显示画面循环显示画面就是一帧一帧的读取YUV/RGB数据,然后显示在屏幕上的过程,下面详述一下步骤。1) 清理在显示之前,通过IDirect3DDevice9接口的Clear()函数可以清理Surface。个人感觉在播放视频的时候用不用这个函数都可以。因为视频本身就是全屏显示的。显示下一帧的时候自然会覆盖前一帧的所有内容。Clear()函数的定义如下所示:HRESULT Clear(
DWORD Count,
const D3DRECT *pRects,
DWORD Flags,
D3DCOLOR Color,
DWORD Stencil
);其中每个参数的含义如下所列:Count:说明你要清空的矩形数目。如果要清空的是整个客户区窗口,则设为0;&&pRects:这是一个D3DRECT结构体的一个数组,如果count中设为5,则这个数组中就得有5个元素。&&Flags:一些标记组合。只有三种标记:D3DCLEAR_STENCIL , D3DCLEAR_TARGET , D3DCLEAR_ZBUFFER。&&Color:清除目标区域所使用的颜色。&&float:设置Z缓冲的Z初始值。Z缓冲还没研究过。&&Stencil:这个在播放视频的时候也没有用到。下面给出一个使用Direct3D播放视频的时候IDirect3DDevice9的Clear()的典型代码。IDirect3DDevice9 *m_pDirect3DD
m_pDirect3DDevice-&Clear(0, NULL, D3DCLEAR_TARGET, D3DCOLOR_XRGB(0, 0, 255), 1.0f, 0);上述代码运行完后,屏幕会变成蓝色(R,G,B取值为0,0,255)。2) 一帧视频数据拷贝至Surface操作Surface的像素数据,需要使用IDirect3DSurface9的LockRect()和UnlockRect()方法。使用LockRect()锁定纹理上的一块矩形区域,该矩形区域被映射成像素数组。利用函数返回的D3DLOCKED_RECT结构体,可以对数组中的像素进行直接存取。LockRect()函数定义如下。HRESULT LockRect(
D3DLOCKED_RECT *pLockedRect,
const RECT *pRect,
DWORD Flags
);每个参数的意义如下:pLockedRect: 返回的一个D3DLOCKED_RECT结构体用于描述被锁定的区域。pRect: 使用一个 RECT结构体指定需要锁定的区域。如果为NULL的话就是整个区域。Flags: 暂时还没有细研究。其中D3DLOCKED_RECT结构体定义如下所示。typedef struct _D3DLOCKED_RECT
} D3DLOCKED_RECT;两个参数的意义如下:Pitch:surface中一行像素的数据量(Bytes)。注意这个的值并不一定等于实际像素数据一行像素的数据量(通常会大一些),它取值一般是4的整数倍。pBits:指向被锁定的数据。使用LockRect()函数之后,就可以对其返回的D3DLOCKED_RECT中的数据进行操作了。例如memcpy()等。操作完成后,调用UnlockRect()方法。下面给出一个使用Direct3D的Surface播放视频的时候IDirect3DSurface9的数据拷贝的典型代码。该代码拷贝了YUV420P的数据至Surface。IDirect3DSurface9 *m_pDirect3DSurfaceR
HRESULT lR
D3DLOCKED_RECT d3d_
lRet=m_pDirect3DSurfaceRender-&LockRect(&d3d_rect,NULL,D3DLOCK_DONOTWAIT);
if(FAILED(lRet))
return -1;
byte *pSrc =
byte * pDest = (BYTE *)d3d_rect.pB
int stride = d3d_rect.P
unsigned long i = 0;
//Copy Data (YUV420P)
for(i = 0;i & pixel_h;i ++){
memcpy(pDest + i * stride,pSrc + i * pixel_w, pixel_w);
for(i = 0;i & pixel_h/2;i ++){
memcpy(pDest + stride * pixel_h + i * stride / 2,pSrc + pixel_w * pixel_h + pixel_w * pixel_h / 4 + i * pixel_w / 2, pixel_w / 2);
for(i = 0;i & pixel_h/2;i ++){
memcpy(pDest + stride * pixel_h + stride * pixel_h / 4 + i * stride / 2,pSrc + pixel_w * pixel_h + i * pixel_w / 2, pixel_w / 2);
lRet=m_pDirect3DSurfaceRender-&UnlockRect();3) 开始一个Scene使用IDirect3DDevice9接口的BeginScene()开始一个Scene。Direct3D中规定所有绘制方法都必须在BeginScene()和EndScene()之间完成。这个函数没有参数。4) Surface数据拷贝至后台缓冲表面使用IDirect3DDevice9接口的GetBackBuffer() 可以获得后台缓冲表面。然后使用StretchRect()方法可以将Surface的数据拷贝至后台缓冲表面中,等待显示。GetBackBuffer()函数定义如下。HRESULT GetBackBuffer(
iSwapChain,
BackBuffer,
D3DBACKBUFFER_TYPE Type,
IDirect3DSurface9 ** ppBackBuffer
);函数中参数含义如下:iSwapChain:指定正在使用的交换链索引。BackBuffer:后台缓冲表面索引。Type:后台缓冲表面的类型。ppBackBuffer:保存后台缓冲表面的LPDIRECT3DSURFACE9对象。StretchRect()可以将一个矩形区域的像素从设备内存的一个Surface转移到另一个Surface上。StretchRect()函数的定义如下。HRESULT StretchRect(
IDirect3DSurface9 * pSourceSurface,
CONST RECT * pSourceRect,
IDirect3DSurface9 * pDestSurface,
CONST RECT * pDestRect,
D3DTEXTUREFILTERTYPE Filter
);函数中参数含义如下:pSourceSurface:指向源Surface的指针。pSourceRect:使用一个 RECT结构体指定源Surface需要复制的区域。如果为NULL的话就是整个区域。pDestSurface:指向目标Surface的指针。pDestRect:使用一个 RECT结构体指定目标Surface的区域。Filter:设置图像大小变换的时候的插值方法。例如:D3DTEXF_POINT:邻域法。质量较差。D3DTEXF_LINEAR:线性插值,最常用。下面给出的代码将离屏表面的数据传给了后台缓冲表面。一但传给了后台缓冲表面,就可以用于显示了。IDirect3DDevice9 *m_pDirect3DD
IDirect3DSurface9 *m_pDirect3DSurfaceR
IDirect3DSurface9 * pBackB
m_pDirect3DDevice-&GetBackBuffer(0,0,D3DBACKBUFFER_TYPE_MONO,&pBackBuffer);
m_pDirect3DDevice-&StretchRect(m_pDirect3DSurfaceRender,NULL,pBackBuffer,&m_rtViewport,D3DTEXF_LINEAR);5) 结束SceneEndScene()和BeginScene()是成对出现的,不再解释。6) 显示使用IDirect3DDevice9接口的Present ()显示结果。Present ()的定义如下。HRESULT Present(
const RECT *pSourceRect,
const RECT *pDestRect,
HWND hDestWindowOverride,
const RGNDATA *pDirtyRegion
);几个参数的意义如下:pSourceRect:你想要显示的后台缓冲表面区的一个矩形区域。设为NULL则表示要把整个后台缓冲表面区的内容都显示。&pDestRect:表示一个显示区域。设为NULL表示整个客户显示区。&hDestWindowOverride:你可以通过它来把显示的内容显示到不同的窗口去。设为NULL则表示显示到主窗口。&pDirtyRegion:一般设为NULL下面给出一个使用Direct3D播放视频的时候IDirect3DDevice9的Present ()的典型代码。从代码可以看出,全部设置为NULL就可以了。IDirect3DDevice9 *m_pDirect3DD
m_pDirect3DDevice-&Present( NULL, NULL, NULL, NULL );播放视频流程总结文章至此,使用Direct3D显示YUV/RGB的全部流程就记录完毕了。最后贴一张图总结上述流程。&代码完整的代码如下所示。/**
* 最简单的Direct3D播放视频的例子(Direct3D播放RGB/YUV)[Surface]
* Simplest Video Play Direct3D (Direct3D play RGB/YUV)[Surface]
* 雷霄骅 Lei Xiaohua
* 中国传媒大学/数字电视技术
* Communication University of China / Digital TV Technology
* http://blog.csdn.net/leixiaohua1020
* 本程序使用Direct3D播放RGB/YUV视频像素数据。使用D3D中的Surface渲染数据。
* 使用Surface渲染视频相对于另一种方法(使用Texture)来说,更加简单,适合
* 新手学习。
* 函数调用步骤如下:
* [初始化]
* Direct3DCreate9():获得IDirect3D9
* IDirect3D9-&CreateDevice():通过IDirect3D9创建Device(设备)。
* IDirect3DDevice9-&CreateOffscreenPlainSurface():通过Device创建一个Surface(离屏表面)。
* [循环渲染数据]
* IDirect3DSurface9-&LockRect():锁定离屏表面。
* memcpy():填充数据
* IDirect3DSurface9-&UnLockRect():解锁离屏表面。
* IDirect3DDevice9-&BeginScene():开始绘制。
* IDirect3DDevice9-&GetBackBuffer():获得后备缓冲。
* IDirect3DDevice9-&StretchRect():拷贝Surface数据至后备缓冲。
* IDirect3DDevice9-&EndScene():结束绘制。
* IDirect3DDevice9-&Present():显示出来。
* This software play RGB/YUV raw video data using Direct3D. It uses Surface
* in D3D to render the pixel data. Compared to another method (use Texture),
* it is more simple and suitable for the beginner of Direct3D.
* The process is shown as follows:
* Direct3DCreate9(): Get IDirect3D9.
* IDirect3D9-&CreateDevice(): Create a Device.
* IDirect3DDevice9-&CreateOffscreenPlainSurface(): Create a Offscreen Surface.
* [Loop to Render data]
* IDirect3DSurface9-&LockRect(): Lock the Offscreen Surface.
* memcpy(): Fill pixel data...
* IDirect3DSurface9-&UnLockRect(): UnLock the Offscreen Surface.
* IDirect3DDevice9-&BeginScene(): Begin drawing.
* IDirect3DDevice9-&GetBackBuffer(): Get BackBuffer.
* IDirect3DDevice9-&StretchRect(): Copy Surface data to BackBuffer.
* IDirect3DDevice9-&EndScene(): End drawing.
* IDirect3DDevice9-&Present(): Show on the screen.
#include &stdio.h&
#include &tchar.h&
#include &d3d9.h&
CRITICAL_SECTION
IDirect3D9 *m_pDirect3D9= NULL;
IDirect3DDevice9 *m_pDirect3DDevice= NULL;
IDirect3DSurface9 *m_pDirect3DSurfaceRender= NULL;
RECT m_rtV
//set '1' to choose a type of file to play
//Read BGRA data
#define LOAD_BGRA
//Read YUV420P data
#define LOAD_YUV420P 1
//Width, Height
const int screen_w=500,screen_h=500;
const int pixel_w=320,pixel_h=180;
FILE *fp=NULL;
//Bit per Pixel
#if LOAD_BGRA
const int bpp=32;
#elif LOAD_YUV420P
const int bpp=12;
unsigned char buffer[pixel_w*pixel_h*bpp/8];
void Cleanup()
EnterCriticalSection(&m_critial);
if(m_pDirect3DSurfaceRender)
m_pDirect3DSurfaceRender-&Release();
if(m_pDirect3DDevice)
m_pDirect3DDevice-&Release();
if(m_pDirect3D9)
m_pDirect3D9-&Release();
LeaveCriticalSection(&m_critial);
int InitD3D( HWND hwnd, unsigned long lWidth, unsigned long lHeight )
HRESULT lR
InitializeCriticalSection(&m_critial);
Cleanup();
m_pDirect3D9 = Direct3DCreate9( D3D_SDK_VERSION );
if( m_pDirect3D9 == NULL )
return -1;
D3DPRESENT_PARAMETERS d3
ZeroMemory( &d3dpp, sizeof(d3dpp) );
d3dpp.Windowed = TRUE;
d3dpp.SwapEffect = D3DSWAPEFFECT_DISCARD;
d3dpp.BackBufferFormat = D3DFMT_UNKNOWN;
GetClientRect(hwnd,&m_rtViewport);
lRet=m_pDirect3D9-&CreateDevice( D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL,hwnd,
D3DCREATE_SOFTWARE_VERTEXPROCESSING,
&d3dpp, &m_pDirect3DDevice );
if(FAILED(lRet))
return -1;
#if LOAD_BGRA
lRet=m_pDirect3DDevice-&CreateOffscreenPlainSurface(
lWidth,lHeight,
D3DFMT_X8R8G8B8,
D3DPOOL_DEFAULT,
&m_pDirect3DSurfaceRender,
#elif LOAD_YUV420P
lRet=m_pDirect3DDevice-&CreateOffscreenPlainSurface(
lWidth,lHeight,
(D3DFORMAT)MAKEFOURCC('Y', 'V', '1', '2'),
D3DPOOL_DEFAULT,
&m_pDirect3DSurfaceRender,
if(FAILED(lRet))
return -1;
bool Render()
HRESULT lR
//Read Data
if (fread(buffer, 1, pixel_w*pixel_h*bpp/8, fp) != pixel_w*pixel_h*bpp/8){
fseek(fp, 0, SEEK_SET);
fread(buffer, 1, pixel_w*pixel_h*bpp/8, fp);
if(m_pDirect3DSurfaceRender == NULL)
return -1;
D3DLOCKED_RECT d3d_
lRet=m_pDirect3DSurfaceRender-&LockRect(&d3d_rect,NULL,D3DLOCK_DONOTWAIT);
if(FAILED(lRet))
return -1;
byte *pSrc =
byte * pDest = (BYTE *)d3d_rect.pB
int stride = d3d_rect.P
unsigned long i = 0;
//Copy Data
#if LOAD_BGRA
int pixel_w_size=pixel_w*4;
for(i=0; i& pixel_h; i++){
memcpy( pDest, pSrc, pixel_w_size );
pSrc += pixel_w_
#elif LOAD_YUV420P
for(i = 0;i & pixel_h;i ++){
memcpy(pDest + i * stride,pSrc + i * pixel_w, pixel_w);
for(i = 0;i & pixel_h/2;i ++){
memcpy(pDest + stride * pixel_h + i * stride / 2,pSrc + pixel_w * pixel_h + pixel_w * pixel_h / 4 + i * pixel_w / 2, pixel_w / 2);
for(i = 0;i & pixel_h/2;i ++){
memcpy(pDest + stride * pixel_h + stride * pixel_h / 4 + i * stride / 2,pSrc + pixel_w * pixel_h + i * pixel_w / 2, pixel_w / 2);
lRet=m_pDirect3DSurfaceRender-&UnlockRect();
if(FAILED(lRet))
return -1;
if (m_pDirect3DDevice == NULL)
return -1;
m_pDirect3DDevice-&Clear( 0, NULL, D3DCLEAR_TARGET, D3DCOLOR_XRGB(0,0,0), 1.0f, 0 );
m_pDirect3DDevice-&BeginScene();
IDirect3DSurface9 * pBackBuffer = NULL;
m_pDirect3DDevice-&GetBackBuffer(0,0,D3DBACKBUFFER_TYPE_MONO,&pBackBuffer);
m_pDirect3DDevice-&StretchRect(m_pDirect3DSurfaceRender,NULL,pBackBuffer,&m_rtViewport,D3DTEXF_LINEAR);
m_pDirect3DDevice-&EndScene();
m_pDirect3DDevice-&Present( NULL, NULL, NULL, NULL );
LRESULT WINAPI MyWndProc(HWND hwnd, UINT msg, WPARAM wparma, LPARAM lparam)
switch(msg){
case WM_DESTROY:
Cleanup();
PostQuitMessage(0);
return DefWindowProc(hwnd, msg, wparma, lparam);
int WINAPI WinMain( __in HINSTANCE hInstance, __in_opt HINSTANCE hPrevInstance, __in LPSTR lpCmdLine, __in int nShowCmd )
WNDCLASSEX
ZeroMemory(&wc, sizeof(wc));
wc.cbSize = sizeof(wc);
wc.hbrBackground = (HBRUSH)(COLOR_WINDOW + 1);
wc.lpfnWndProc = (WNDPROC)MyWndP
wc.lpszClassName = L&D3D&;
wc.style = CS_HREDRAW | CS_VREDRAW;
RegisterClassEx(&wc);
HWND hwnd = NULL;
hwnd = CreateWindow(L&D3D&, L&Simplest Video Play Direct3D (Surface)&, WS_OVERLAPPEDWINDOW, 100, 100, 500, 500, NULL, NULL, hInstance, NULL);
if (hwnd==NULL){
return -1;
if(InitD3D( hwnd, pixel_w, pixel_h)==E_FAIL){
return -1;
ShowWindow(hwnd, nShowCmd);
UpdateWindow(hwnd);
#if LOAD_BGRA
fp=fopen(&../test_bgra_320x180.rgb&,&rb+&);
#elif LOAD_YUV420P
fp=fopen(&../test_yuv420p_320x180.yuv&,&rb+&);
if(fp==NULL){
printf(&Cannot open this file.\n&);
return -1;
ZeroMemory(&msg, sizeof(msg));
while (msg.message != WM_QUIT){
//PeekMessage, not GetMessage
if (PeekMessage(&msg, NULL, 0, 0, PM_REMOVE)){
TranslateMessage(&msg);
DispatchMessage(&msg);
Sleep(40);
UnregisterClass(L&D3D&, hInstance);
代码注意事项1.可以通过设置定义在文件开始出的宏,决定读取哪个格式的像素数据(bgra,rgb24,bgr24,yuv420p)。//set '1' to choose a type of file to play
//Read BGRA data
#define LOAD_BGRA
//Read YUV420P data
#define LOAD_YUV420P 1
2.窗口的宽高为screen_w,screen_h。像素数据的宽高为pixel_w,pixel_h。它们的定义如下。//Width, Height
const int screen_w=500,screen_h=500;
const int pixel_w=320,pixel_h=180;
3.其他要点 本程序使用的是Win32的API创建的窗口。但注意这个并不是MFC应用程序的窗口。MFC代码量太大,并不适宜用来做教程。因此使用Win32的API创建窗口。程序的入口函数是WinMain(),其中调用了CreateWindow()创建了显示视频的窗口。此外,程序中的消息循环使用的是PeekMessage()而不是GetMessage()。GetMessage()获取消息后,将消息从系统中移除,当系统无消息时,会等待下一条消息,是阻塞函数。而函数PeekMesssge()是以查看的方式从系统中获取消息,可以不将消息从系统中移除(相当于“偷看”消息),是非阻塞函数;当系统无消息时,返回FALSE,继续执行后续代码。使用PeekMessage()的好处是可以保证每隔40ms可以显示下一帧画面。运行结果不论选择读取哪个格式的文件,程序的最终输出效果都是一样的,如下图所示。下载代码位于“Simplest Media Play”中SourceForge项目地址:https://sourceforge.net/projects/simplestmediaplay/CSDN下载地址:http://download.csdn.net/detail/leixiaohua上述工程包含了使用各种API(Direct3D,OpenGL,GDI,DirectSound,SDL2)播放多媒体例子。其中音频输入为PCM采样数据。输出至系统的声卡播放出来。视频输入为YUV/RGB像素数据。输出至显示器上的一个窗口播放出来。通过本工程的代码初学者可以快速学习使用这几个API播放视频和音频的技术。一共包括了如下几个子工程:simplest_audio_play_directsound:
使用DirectSound播放PCM音频采样数据。simplest_audio_play_sdl2:
使用SDL2播放PCM音频采样数据。simplest_video_play_direct3d:
使用Direct3D的Surface播放RGB/YUV视频像素数据。simplest_video_play_direct3d_texture:使用Direct3D的Texture播放RGB视频像素数据。simplest_video_play_gdi:
使用GDI播放RGB/YUV视频像素数据。simplest_video_play_opengl:
使用OpenGL播放RGB/YUV视频像素数据。simplest_video_play_opengl_texture: 使用OpenGL的Texture播放YUV视频像素数据。simplest_video_play_sdl2:
使用SDL2播放RGB/YUV视频像素数据。
这个要看你电脑的配置了,如果配置高.又是WIN7系统,视频输出用VMR9未渲染这种模式.尽量用硬件不要用软件,软件会降低它的画质.只能给你点建议,太高深的可能得问作者本人了.复制了点资料你自己了解一下:覆盖模式:大概在1995年,当大家想在电脑上放VCD的时候,CPU的处理能力还不够完成该任务,于是显卡制造厂商推出&video overlay(视频覆盖)&技术。在显卡上用硬件完成同时显示几个视频的功能(拉伸,颜色空间变换,等等...)的技术,这样就可以在pc上流畅的播放动画而不占用cpu。视频覆盖的画面质量事实上取决于显卡硬件。Direct3D:是微软提供给程序员使用一个不断进化的功能集合的DirectX库的一部分。比视频覆盖提供了更好的图像质量,但是不是所有的显卡都支持这个技术VMR9:这是最新的视频渲染技术。它完全建筑在Direct3D上,可以提供最好的画质(取决于渲染模式和显卡)。vmr9支持硬件颜色操作(如果卡支持)VMR9:窗口:这种是最基本的模式,它向后兼容,但不支持帧抓屏,在dvd菜单导航时只能用这个模式了。VMR9:窗口无转换:这个模式比窗口模式高级点,用来截图是最好的。VMR9:渲染无转换:这个可是vmr9中最复杂的渲染模式(它可以工作在Direct3D独占模式,那就是整个机器被设定为全屏,其他运行的程序不可以操作视频硬件,在这个独占模式下,所耗cpu更少,分辨率越高,回放就更平滑)括号内的具体还没搞清楚!不过一般我看REMUX都用这个模式,画质好,CPU嘛,占用是有点高,但为了画质也值得!EVR增强渲染模式:Vista的技术了,微软吹得很强,但问题不少。字幕问题。目前用EVR是无法在高速或者急速模式下把字幕显示出来。那个EVR C/A 倒是能够显示字幕,不过dxva2.0就会失效,换句话说就无法开启显卡的硬件解码功能。还有一个问题就是色阶或者黑位问题,色阶问题目前可以说几乎毫无办法,最多能用一下coreavc的fix color功能解决一下,但是还是有相当大的局限性。具体点的知识问问F版或O版这类的高人才能得到比较准确的回答!VMR9未渲染(HQ 字幕)对硬件的要求稍微高一点,如果你的CPU够强,比如是双核就用这个咯!如果CPU一般,比如是单核的,那就用覆盖模式咯,覆盖模式对CPU的占用会低一些!EVR C/A是能够硬解并挂字幕的,并且个人感觉EVR下的显卡缩放有最好的效果,接近用LANCOZ滤镜RESIZE了,但是资源占的很少,放低分辨率片子比其他模式来的平滑一些。OVERLAY是占资源最少,但是不在WINDOWS的图层抓图几乎不能,一次只能开一个OVERLAY程序也就是有独占性,跳过校色文件比如ICM设置,是可调整性最差的。我用覆盖模式图像对比度高颜色艳丽,就是人物肤色偏红,VMR9未渲染(HQ 字幕)对比度差点,人物肤色偏于真实。以下为个人感受:1.配置好绝对选VMR9,有些显卡会泛白(蒙白纱),可通过调输出为RGB32解决,楼主已经有图。这种渲染会损失一点对比度和锐度,但是更柔和逼真。且高清格式多用这渲染较好。2.配置差绝对选覆盖模式(并且开高速模式),占用CPU最少,对比度、饱和度、色调、色阶、锐度都很好支持,可以调出不错效果。3.配置中等的,推荐Direct3D(7或8或9和RGB还是YUV,根据显卡情况选)。此渲染结合以上两种优点,比较中庸。...余下全文>>
一、Video Renderer和Overlay Mixer大家知道,Video Renderer (VR)是接收RGB/YUV裸数据,然后在显示器上显示的Filter。为提高计算机画图性能,根据你计算机显卡的能力,VR会优先使用DirectDraw以及Overlay表面;如果这些特性得不到显卡的支持,VR会使用GDI函数进行画图。在上级Filter连接到VR时,VR总是先要求当前显示器设置的色彩位数的RGB格式,如你的机器设置的是24位彩色,则VR首先要求连接的Media type为RGB24。如果你的显卡支持YUV Overlay表面,那么在Filter Graph运行起来的时候,VR会动态改变已经连接的Media type,要求上级Filter输出一种合适的YUV格式。VR Filter上实现了IVideoWindow接口,Filter Graph Manager主要通过这个接口来控制视频窗口。 那么,Overlay Mixer又是怎么回事呢?简单地说,Overlay Mixer就是能够将几路视频流合成输出的Filter。这个Filter是特地为DVD回放(DVD有Sub-picture或line-21数据需要叠加显示)或广播视频流(含有line-21数据)而设计的。同时,它还支持硬件解码器使用Video Port Extensions,就是绕过PCI总线,将硬件解码出来的数据直接送给显卡显示。这个Filter同样优先使用显卡的DirectDraw能力,而且必须要有Overlay表面。Overlay Mixer有一个输出Pin,输出的Media type是:MEDIATYPE_VIDEO,MEDIASUBTYPE_ Overlay;后面一般连上一个Video Renderer。当Filter Graph运行时,实际的图像显示工作由Overlay Mixer完成,而Video Renderer只是做一个视频窗口的管理工作。还有另外一个更常见的Filter:Overlay Mixer 2。这个Filter跟Overlay Mixer功能上是一样的,只是两个Filter支持的Format type不同和Merit值不同而已。 Overlay Mixer使用Color keying来实现几路视频的合成:它将Color key和sub-picture(或line-21)数据送到主表面,将主视频数据送到Overlay表面;显卡然后将两个表面的数据合成,送到帧缓存(Frame buffer)中进行显示。典型的情况,Overlay Mixer使用三个Input pin:Pin 0输入主视频数据,Pin 1和Pin 2输入sub-picture数据和line-21数据。Overlay Mixer在内部根据Pin 0输入的数据来创建Overlay表面。Overlay Mixer向上一般连接的是Video Decoder。如果这是个Software decoder,则Pin 0上的数据传输使用标准的IMemInputPin接口;如果使用了硬件加速,则Pin 0上必须使用IAMVideoAccelerator接口。(注意这两种接口是不能同时使用的!)如果上一级Filter是硬件解码器的包装Filter,使用VP pin输出,则解码器与Overlay Mixer使用IVPConfig和IVPNotify接口对通讯,以协调工作。Overlay Mixer不支持1394或USB接口的采集设备。Overlay Mixer向下一般连的是Video Ren......余下全文>>
相关搜索:
相关阅读:
相关频道:
&&&&&&&&&&&&&&&&
WEB编程教程最近更新

我要回帖

更多关于 伏天从什么时候开始 的文章

 

随机推荐