SDK对YUV摄像种类实行编码,来探视机智的前端童

HTML5:使用Canvas实时管理Video

2015/09/11 · HTML5 · Canvas

本文由 伯乐在线 - cucr 翻译,唐尤华 校稿。未经许可,禁止转发!
丹麦语出处:mozilla。接待到场翻译组。

结合HTML5下的videocanvas的功效,你能够实时管理录像数据,为正值播放的录像加多美妙绝伦的视觉效果。本学科演示怎么着运用JavaScript代码完结chroma-keying特效(也被喻为“青白显示器效应”)。

请看那些实例.

来走访机智的前端童鞋怎么防盗

2016/07/12 · JavaScript · 4 评论 · HTML5

原稿出处: VaJoy   

大多开销的童鞋都是孤零零混江湖、夜宿城中村,要是居住的地点安全保卫欠缺,那么出门在外难免担忧屋里的财产安全。

实际上世面上有相当多高大上的防盗设施,但对此灵动的前端童鞋来讲,只要有一台附带录像头的微管理器,就足以大约地达成一个防盗监察和控制系统~

纯 JS 的“防盗”技能相当大程度借助于 H5 canvas 的力量,且非常风趣。即便你对 canvas 还面生,能够先点这里读书笔者的类别教程。

step1. 调用摄像头

小编们须求先在浏览器上访谈和调用录像头,用来监督房子里的举动。分歧浏览器中调用摄像头的 API 都略有出入,在那边大家以 chrome 做示范:

JavaScript

<video width="640" height="480" autoplay></video> <script> var video = document.querySelector('video'); navigator.webkitGetUserMedia({ video: true }, success, error); function success(stream) { video.src = window.webkitURL.createObjectURL(stream); video.play(); } function error(err) { alert('video error: ' err) } </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
<video width="640" height="480" autoplay></video>
 
<script>
    var video = document.querySelector('video');
 
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert('video error: ' err)
    }
</script>

运作页面后,浏览器出于安全性怀想,会询问是不是同意当前页面访问你的录像头设备,点击“允许”后便能直接在 <video> 上观看拍戏头捕获到的镜头了:

图片 1

step2. 捕获 video 帧画面

只不过开着摄像头监视房间可未有任何意义,浏览器不会帮您对监督画面进行分析。所以这里咱们胜利动用脚本捕获 video 上的帧画面,用于在持续进展数量分析。

从这边开端大家将在借助 canvas 力量了。在 Canvas入门(五)一文大家介绍过 ctx.drawImage() 方法,通过它能够捕获 video 帧画面并渲染到画布上。

小编们供给创建多个画布,然后这么写:

JavaScript

<video width="640" height="480" autoplay></video> <canvas width="640" height="480"></canvas> <script> var video = document.querySelector('video'); var canvas = document.querySelector('canvas'); // video捕获录像头画面 navigator.webkitGetUserMedia({ video: true }, success, error); function success(stream) { video.src = window.webkitUENVISIONL.createObjectU福睿斯L(stream); video.play(); } function error(err) { alert('video error: ' err) } //canvas var context = canvas.getContext('2d'); setTimeout(function(){ //把当前录像帧内容渲染到画布上 context.drawImage(video, 0, 0, 640, 480); }, 四千); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector('video');
    var canvas = document.querySelector('canvas');
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert('video error: ' err)
    }
 
    //canvas
    var context = canvas.getContext('2d');
 
    setTimeout(function(){
        //把当前视频帧内容渲染到画布上
        context.drawImage(video, 0, 0, 640, 480);
    }, 5000);
 
</script>

如上代码所示,5秒后把摄像帧内容渲染到画布上(下方右图)

图片 2

step3. 对抓获的八个帧画面施行差距混合

在上头大家提到过,要使得地识别有些场景,必要对录像画面实行数量深入分析。

那正是说要怎么辨识我们的房子是不是有人突然闯入了呢?答案很简短 —— 定期地捕获 video 画面,然后比较前后两帧内容是还是不是存在相当的大变化。

咱俩先轻巧地写二个按时捕获的办法,并将捕获到的帧数据存起来:

JavaScript

//canvas var context = canvas.getContext('2d'); var preFrame, //前一帧 curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){ console.log(context); preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataULANDL; //转为base64并保存 } //定期捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
    //canvas
    var context = canvas.getContext('2d');
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){ console.log(context);
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL;  //转为base64并保存
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            timer(delta)
        }, delta || 500);
    }
 
    timer();

如上代码所示,画布会每隔500纳秒捕获并渲染二回 video 的帧内容(夭寿哇,做完那几个动作十分的大心把饼干洒了一地。。。(“▔□▔)/)

图片 3

在意这里大家选取了 canvas.toDataURL 方法来保存帧画面。

接着正是数据解析管理了,大家能够经过对照前后捕获的帧画面来剖断视频头是或不是监控到变化,那么怎么办啊?

纯熟设计的同校确定平时使用两个图层功用 —— 混合形式:

图片 4

当有七个图层时,对顶层图层设置“差值/Difference”的插花形式,能够一览驾驭地来看多个图层的反差:

图片 5

“图A”是本人二〇一八年在铺子楼下拍的相片,然后作者把它有个别调亮了一点点,并在地点画了一个X 和 O 获得“图B”。接着本人把它们以“差值”格局混合在一同,获得了最右的那张图。

JavaScript

“差值”方式原理:要掺杂图层双方的揽胜GB值中每种值分别开展相比较,用高值减去低值作为合成后的水彩,平日用金黄图层合成一图像时,可以取得负片效果的反相图像。用褐绿的话不发出任何退换(深红亮度最低,下层颜色减去最小颜色值0,结果和原先同样),而用浅蓝十字会获得反相效果(下层颜色被减去,获得补值),其它颜色则基于它们的亮度水平

1
“差值”模式原理:要混合图层双方的RGB值中每个值分别进行比较,用高值减去低值作为合成后的颜色,通常用白色图层合成一图像时,可以得到负片效果的反相图像。用黑色的话不发生任何变化(黑色亮度最低,下层颜色减去最小颜色值0,结果和原来一样),而用白色会得到反相效果(下层颜色被减去,得到补值),其它颜色则基于它们的亮度水平

在CSS3中,已经有 blend-mode 个性来支持那些妙不可言的混杂方式,可是大家发掘,在主流浏览器上,canvas 的 globalCompositeOperation 接口也已经完美协理了图像混合格局:

于是乎大家再建多二个画布来展现前后两帧差距:

JavaScript

<video width="640" height="480" autoplay></video> <canvas width="640" height="480"></canvas> <canvas width="640" height="480"></canvas> <script> var video = document.querySelector('video'); var canvas = document.querySelectorAll('canvas')[0]; var canvasForDiff = document.querySelectorAll('canvas')[1]; // video捕获录像头画面 navigator.webkitGetUserMedia({ video: true }, success, error); function success(stream) { video.src = window.UEscortL.createObjectU纳瓦拉L(stream); video.play(); } function error(err) { alert('video error: ' err) } //canvas var context = canvas.getContext('2d'), diffCtx = canvasForDiff.getContext('2d'); //将第贰个画布混合格局设为“差距” diffCtx.globalCompositeOperation = 'difference'; var preFrame, //前一帧 curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){ preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataUPRADOL(); //转为base64并保存 } //绘制base64图像到画布上 function drawImg(src, ctx){ ctx = ctx || diffCtx; var img = new Image(); img.src = src; ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差别function renderDiff(){ if(!preFrame || !curFrame) return; diffCtx.clearRect(0, 0, 640, 480); drawImg(preFrame); drawImg(curFrame); } //定期捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); renderDiff(); timer(delta) }, delta || 500); } timer(); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector('video');
    var canvas = document.querySelectorAll('canvas')[0];
    var canvasForDiff = document.querySelectorAll('canvas')[1];
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.URL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert('video error: ' err)
    }
 
    //canvas
    var context = canvas.getContext('2d'),
        diffCtx = canvasForDiff.getContext('2d');
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = 'difference';
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            timer(delta)
        }, delta || 500);
    }
 
    timer();
 
</script>

成效如下(夭寿啊,做完那些动作作者又把Sprite洒在键盘上了。。。(#--)/ )

图片 6

能够看来,当前后两帧差距非常的小时,第多个画布大致是模糊的一片,只有当拍录头捕获到动作了,第三个画布才有总来说之的高亮内容出现。

所以,大家只供给对第多个画布渲染后的图像实行像素深入分析——判定其高亮阈值是不是达到规定的标准有些钦命预期:

JavaScript

var context = canvas.getContext('2d'), diffCtx = canvasForDiff.getContext('2d'); //将第叁个画布混合情势设为“差别” diffCtx.globalCompositeOperation = 'difference'; var preFrame, //前一帧 curFrame; //当前帧 var diffFrame; //存放差距帧的imageData //捕获并保存帧内容 function captureAndSaveFrame(){ preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataUEvoqueL(); //转为base64并保存 } //绘制base64图像到画布上 function drawImg(src, ctx){ ctx = ctx || diffCtx; var img = new Image(); img.src = src; ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差别 function renderDiff(){ if(!preFrame || !curFrame) return; diffCtx.clearRect(0, 0, 640, 480); drawImg(preFrame); drawImg(curFrame); diffFrame = diffCtx.getImageData( 0, 0, 640, 480 ); //捕获差别帧的imageData对象 } //计算差距 function calcDiff(){ if(!diffFrame) return 0; var cache = arguments.callee, count = 0; cache.total = cache.total || 0; //整个画布都是玛瑙红时享有像素的值的总量 for (var i = 0, l = diffFrame.width * diffFrame.height * 4; i < l; i = 4) { count = diffFrame.data[i] diffFrame.data[i 1] diffFrame.data[i 2]; if(!cache.isLoopEver){ //只需在率先次循环里实施 cache.total = 255 * 3; //单个反革命像素值 } } cache.isLoopEver = true; count *= 3; //亮度放大 //重回“差距画布高亮部分像素总值”占“画布全亮景况像素总值”的百分比 return Number(count/cache.total).toFixed(2); } //定时捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); renderDiff(); setTimeout(function(){ console.log(calcDiff()); }, 10); timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
    var context = canvas.getContext('2d'),
        diffCtx = canvasForDiff.getContext('2d');
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = 'difference';
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    var diffFrame;  //存放差异帧的imageData
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
        diffFrame = diffCtx.getImageData( 0, 0, 640, 480 );  //捕获差异帧的imageData对象
    }
 
    //计算差异
    function calcDiff(){
        if(!diffFrame) return 0;
        var cache = arguments.callee,
            count = 0;
        cache.total = cache.total || 0; //整个画布都是白色时所有像素的值的总和
        for (var i = 0, l = diffFrame.width * diffFrame.height * 4; i < l; i = 4) {
            count = diffFrame.data[i] diffFrame.data[i 1] diffFrame.data[i 2];
            if(!cache.isLoopEver){  //只需在第一次循环里执行
                cache.total = 255 * 3;   //单个白色像素值
            }
        }
        cache.isLoopEver = true;
        count *= 3;  //亮度放大
        //返回“差异画布高亮部分像素总值”占“画布全亮情况像素总值”的比例
        return Number(count/cache.total).toFixed(2);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            setTimeout(function(){
                console.log(calcDiff());
            }, 10);
 
            timer(delta)
        }, delta || 500);
    }
 
    timer();

留心这里我们应用了 count *= 3 来放大差距高亮像素的亮度值,不然得出的数值实在太小了。我们运转下页面(图片异常的大加载会有一点慢)

图片 7

因而试(xia)验(bai),个人认为假如 calcDiff() 重返的比值借使抢先0.20,那么就足以定性为“一间空屋家,忽地有人闯进来”的场馆了。

step4. 上报万分图片

当上述的图谋开掘有气象时,须求有某种路子布告大家。有钱有生机的话能够配备个邮件服务器,直接发邮件乃至短信文告到本身,but 本文走的吃吐少年路径,就不搞的那么高档了。

那么要什么轻便地贯彻丰裕图片的反映呢?作者临时想到的是 —— 直接把难题图片发送到有些站点中去。

此地大家选择微博的“日记”功能,它能够私下上传相关内容。

JavaScript

p.s.,其实这里原来是想直接把图片传遍微博相册上的,缺憾POST央求的图样实体要求走 file 格式,即无法通过脚本更改文件的 input[type=file],转 Blob 再上传也没用,只能作罢。

1
p.s.,其实这里原本是想直接把图片传到博客园相册上的,可惜POST请求的图片实体要求走 file 格式,即无法通过脚本更改文件的 input[type=file],转 Blob 再上传也没用,只好作罢。

大家在保管后台创制日记时,通过 Fiddler 抓包可以看来其需要参数非常轻巧:

图片 8

进而得以一贯协会二个诉求:

JavaScript

//万分图片上传管理 function submit(){ //ajax 提交form $.ajax({ url : '', type : "POST", data : { '__VIEWSTATE': '', '__VIEWSTATEGENERATOR': '4773056F', 'Editor$Edit$txbTitle': '告警' Date.now(), 'Editor$Edit$EditorBody': '<img src="' curFrame '" />', 'Editor$Edit$lkbPost': '保存' }, success: function(){ console.log('submit done') } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
    //异常图片上传处理
    function submit(){
 
        //ajax 提交form
        $.ajax({
            url : 'http://i.cnblogs.com/EditDiary.aspx?opt=1',
            type : "POST",
            data : {
                '__VIEWSTATE': '',
                '__VIEWSTATEGENERATOR': '4773056F',
                'Editor$Edit$txbTitle': '告警' Date.now(),
                'Editor$Edit$EditorBody': '<img src="' curFrame '" />',
                'Editor$Edit$lkbPost': '保存'
            },
            success: function(){
                console.log('submit done')
            }
        });
    }

当然要是请求页面跟网易域名差别,是无力回天发送 cookie 导致需要跨域而失效,不过那一个很好化解,直接改换 host 就可以(怎么修改就不介绍了,自行百度呢)

自个儿那边改完 host,通过  的地点访谈页面,开采摄像头竟然失效了~

通过谷歌(Google)的文档可以摸清,那是为着安全性考虑,非 HTTPS 的服务端哀告都无法联网录制头。可是消除办法也是部分,以 window 系统为例,展开 cmd 命令行面板并定位到 chrome 安装文件夹下,然后实施:

ZSH

chrome --unsafely-treat-insecure-origin-as-secure="" --user-data-dir=C:testprofile

1
chrome --unsafely-treat-insecure-origin-as-secure="http://i.cnblogs.com/h5monitor/final.html"  --user-data-dir=C:testprofile

此举将以沙箱方式展开二个独门的 chrome 进程,并对点名的站点去掉安全范围。注意大家在新开的 chrome 中得重新登入今日头条。

那时便能寻常访谈摄像头了,大家对代码做下拍卖,当差距检查实验发现至极时,创设一份日记,最小间隔时间为5秒(但是后来意识没供给,因为新浪已经有做了时间范围,大致10秒后本事揭露新的日记)

JavaScript

//定时捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); renderDiff(); if(calcDiff() > 0.2){ //监察和控制到不行,发日志 submit() } timer(delta) }, delta || 500); } setTimeout(timer, 四千0 * 10); //设定张开页面十二分钟后才起来监控//十分图片上传管理 function submit(){ var cache = arguments.callee, now = Date.now(); if(cache.req提姆e && (now - cache.reqTime < 五千)) return; //日记创立最小间隔为5秒 cache.reqTime = now; //ajax 提交form $.ajax({ url : '', type : "POST", timeout : 5000, data : { '__VIEWSTATE': '', '__VIEWSTATEGENERATOR': '4773056F', 'Editor$Edit$txbTitle': '告警' Date.now(), 'Editor$Edit$EditorBody': '<img src="' curFrame '" />', 'Editor$Edit$lkbPost': '保存' }, success: function(){ console.log('submit done') }, error: function(err){ cache.reqTime = 0; console.log('error: ' err) } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            if(calcDiff() > 0.2){  //监控到异常,发日志
                submit()
            }
 
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控
 
 
    //异常图片上传处理
    function submit(){
        var cache = arguments.callee,
            now = Date.now();
        if(cache.reqTime && (now - cache.reqTime < 5000)) return;  //日记创建最小间隔为5秒
 
        cache.reqTime = now;
 
        //ajax 提交form
        $.ajax({
            url : 'http://i.cnblogs.com/EditDiary.aspx?opt=1',
            type : "POST",
            timeout : 5000,
            data : {
                '__VIEWSTATE': '',
                '__VIEWSTATEGENERATOR': '4773056F',
                'Editor$Edit$txbTitle': '告警' Date.now(),
                'Editor$Edit$EditorBody': '<img src="' curFrame '" />',
                'Editor$Edit$lkbPost': '保存'
            },
            success: function(){
                console.log('submit done')
            },
            error: function(err){
                cache.reqTime = 0;
                console.log('error: ' err)
            }
        });
    }

试行效劳:

图片 9

日志也是妥妥的出来了:

图片 10

点开就可以看出那一个的那张图纸了:

图片 11

要留意的是,网易对日记发表数据是有做天天额度限制来防刷的,抵达限额的话会招致当天的小说和作品也爱莫能助发表,所以得严峻使用:

图片 12

只是这种样式仅能反映分外图片,暂且不能够让大家立时收悉告警,有意思味的童鞋能够试着再写个 chrome 插件,定期去拉取日记列表做判别,借使有新扩展日记则触发页面 alert。

另外大家当然希望能直接对闯入者进行警戒,这块相比好办 —— 搞个警示的韵律,在特别的时候接触播放就能够:

JavaScript

//播放音频 function fireAlarm(){ audio.play() } //定期捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); if(preFrame && curFrame){ renderDiff(); if(calcDiff() > 0.2){ //监察和控制到丰硕//发日记 submit(); //播放音频告警 fireAlarm(); } } timer(delta) }, delta || 500); } setTimeout(timer, 陆仟0 * 10); //设定展开页面十分钟后才起来监察和控制

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
    //播放音频
    function fireAlarm(){
        audio.play()
    }
 
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            if(preFrame && curFrame){
                renderDiff();
                if(calcDiff() > 0.2){  //监控到异常
                    //发日记
                    submit();
                    //播放音频告警
                    fireAlarm();
                }
            }
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控

末段说一下,本文代码均挂在我的github上,有意思味的童鞋能够自助下载。共勉~

1 赞 4 收藏 4 评论

图片 13

1、FFMpeg实行录像编码所急需的构造:

1.第一个Canvas程序 

文书档案内容

正文使用的XHTML文书档案如下所示。

XHTML

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "; <html xmlns="; <head> <style> body { background: black; color:#CCCCCC; } #c2 { background-image: url(foo.png); background-repeat: no-repeat; } div { float: left; border :1px solid #444444; padding:10px; margin: 10px; background:#3B3B3B; } </style> <script type="text/javascript;version=1.8" src="main.js"></script> </head> <body onload="processor.doLoad()"> <div> <video id="video" src="video.ogv" controls="true"/> </div> <div> <canvas id="c1" width="160" height="96"/> <canvas id="c2" width="160" height="96"/> </div> </body> </html>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN"
        "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
  <head>
    <style>
      body {
        background: black;
        color:#CCCCCC;
      }
      #c2 {
        background-image: url(foo.png);
        background-repeat: no-repeat;
      }
      div {
        float: left;
        border :1px solid #444444;
        padding:10px;
        margin: 10px;
        background:#3B3B3B;
      }
    </style>
    <script type="text/javascript;version=1.8" src="main.js"></script>
  </head>
 
  <body onload="processor.doLoad()">
    <div>
      <video id="video" src="video.ogv" controls="true"/>
    </div>
    <div>
      <canvas id="c1" width="160" height="96"/>
      <canvas id="c2" width="160" height="96"/>
    </div>
  </body>
</html>

如上代码关键部分如下:

1.创立了四个canvas成分,ID分别为c1和c2。c1用来呈现当前帧的原有摄像,c2是用来展现施行chroma-keying特效后的录制;c2预加载了一高尚态图片,将用来取代录制中的背景观部分。
2.JavaScript代码从main.js文件导入;这段脚本使用JavaScript 1.8的风味,所以在导入脚本时,第22行中内定了版本。
3.当网页加载时,main.js中的processor.doLoad()方法会运转。

为了贯彻调用FFMpeg的API实现录像的编码,以下结构是要求的:

 

JavaScript代码

main.js中的JS代码包括四个格局。

AVCodec:AVCodec结构保留了二个编解码器的实例,完成实际的编码功用。平日大家在前后相继中定义一个指向AVCodec结构的指针指向该实例。
AVCodecContext:AVCodecContext表示AVCodec所代表的上下文音信,保存了AVCodec所要求的有些参数。对于完结编码成效,大家能够在那么些组织中装置大家内定的编码参数。经常也是概念三个指针指向AVCodecContext。
AVFrame:AVFrame结构保留编码在此之前的像素数量,并视作编码器的输入数据。其在程序中也是一个指针的款型。
AVPacket:AVPacket表示码流包结构,包涵编码之后的码流数据。该协会得以不定义指针,以三个对象的款型定义。
在大家的顺序中,大家将这几个构造组成在了八个结构体中:

看的是HTML5移动支付即学即用那本书,首先学习Canvas基础,废话相当少说,直接看率先个例子。

初始化chroma-key

doLoad()方法在XHTML文书档案开端加载时调用。这几个方式的机能是为chroma-key管理代码企图所需的变量,设置多个事件侦听器,当客户开头播报录制时大家能检验到。

JavaScript

doLoad: function() { this.video = document.getElementById("video"); this.c1 = document.getElementById("c1"); this.ctx1 = this.c1.getContext("2d"); this.c2 = document.getElementById("c2"); this.ctx2 = this.c2.getContext("2d"); let self = this; this.video.addEventListener("play", function() { self.width = self.video.videoWidth / 2; self.height = self.video.videoHeight / 2; self.timerCallback(); }, false); },

1
2
3
4
5
6
7
8
9
10
11
12
13
doLoad: function() {
    this.video = document.getElementById("video");
    this.c1 = document.getElementById("c1");
    this.ctx1 = this.c1.getContext("2d");
    this.c2 = document.getElementById("c2");
    this.ctx2 = this.c2.getContext("2d");
    let self = this;
    this.video.addEventListener("play", function() {
        self.width = self.video.videoWidth / 2;
        self.height = self.video.videoHeight / 2;
        self.timerCallback();
      }, false);
  },

这段代码获取XHTML文书档案中video成分和七个canvas成分的引用,还拿走了五个canvas的图纸上下文的援用。这一个将要大家实现chroma-keying特效时选拔。

add伊夫ntListener()监听video成分,当客户按下录像上的播放按键时被调用。为了酬答顾客重播,这段代码获取录制的上升的幅度和中度,何况减半(大家将要实施chroma-keying效果时将录制的深浅减半),然后调用timerCallback()方法来运维摄像捕捉和视觉效果总括。

/*****************************************
Struct: CodecCtx
Description: FFMpeg编解码器上下文
*****************************************/
typedef struct
{
AVCodec *codec; //指向编解码器实例
AVFrame *frame; //保存解码之后/编码此前的像素数量
AVCodecContext *c; //编解码器上下文,保存编解码器的一部分参数设置
AVPacket pkt; //码流包结构,富含编码码流数据
} CodecCtx;
2、FFMpeg编码的首要步骤:

 

反应计时器回调

停车计时器回调函数在录像初阶播报时被调用(当“播放”事件爆发时),然后担负自个儿周期调用,为每一帧录像达成keying特效。

JavaScript

timerCallback: function() { if (this.video.paused || this.video.ended) { return; } this.computeFrame(); let self = this; setTimeout(function () { self.timerCallback(); }, 0); },

1
2
3
4
5
6
7
8
9
10
timerCallback: function() {
    if (this.video.paused || this.video.ended) {
      return;
    }
    this.computeFrame();
    let self = this;
    setTimeout(function () {
        self.timerCallback();
      }, 0);
  },

回调函数首先检查录制是还是不是正在播放;若无,回调函数不做别的事并立即回到。

下一场调用computeFrame()方法,该格局对日前录制帧实践chroma-keying特效。

回调函数做的末段一件事便是调用set提姆eout(),来让它自个儿尽快地被重新调用。在实蒙受到中,你可能会基于录制的帧率来设置调用频率。

(1)、输入编码参数

 

管理录制帧数据

computeFrame()方法,如下所示,实际上担负抓取每一帧的数量和实践chroma-keying特效。

JavaScript

computeFrame: function() { this.ctx1.drawImage(this.video, 0, 0, this.width, this.height); let frame = this.ctx1.getImageData(0, 0, this.width, this.height); let l = frame.data.length / 4; for (let i = 0; i < l; i ) { let r = frame.data[i * 4 0]; let g = frame.data[i * 4 1]; let b = frame.data[i * 4 2]; if (g > 100 && r > 100 && b < 43) frame.data[i * 4 3] = 0; } this.ctx2.putImageData(frame, 0, 0); return; }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
computeFrame: function() {
    this.ctx1.drawImage(this.video, 0, 0, this.width, this.height);
    let frame = this.ctx1.getImageData(0, 0, this.width, this.height);
    let l = frame.data.length / 4;
 
    for (let i = 0; i < l; i ) {
      let r = frame.data[i * 4 0];
      let g = frame.data[i * 4 1];
      let b = frame.data[i * 4 2];
      if (g > 100 && r > 100 && b < 43)
        frame.data[i * 4 3] = 0;
    }
    this.ctx2.putImageData(frame, 0, 0);
    return;
  }

当它被调用后,video成分将显示近期的录制帧数据,如下所示:

图片 14

在第2行,录像帧被复制到第多少个canvas ctx1的图样上下文中,中度和宽窄值内定为大家事先封存的帧大小的50%。注意,您能够因而传递video元素到绘图上下文的drawImage()方法来绘制当前摄像帧。其结果是:

图片 15

第3行代码通过调用第四个canvas上下文的getImageData()方法,来获得原始图像数据当前录像帧的贰个别本。它提供了原来的三十一人像素图像数据,那样大家就可见进行操作。第4行代码通过将帧图像数据的路程度除以4,来计量图像的总像素数。

第6行代码循环扫描全体像素,获取种种像素的红、绿、蓝值,同一时候和预订义的背景象实行比较,那个背景象将用foo.png中导入的背景图像替换。

被检验成背景的每贰个像素,将它的阿尔法值替换为零,评释该像素是截然透明的。结果,最终的图像背景有个别是百分之百透明的,那样在第13行代码,把它被绘制到目的的前后文中时,效果是内容叠合到静态背景上。

经过爆发的图像看起来像那样:

图片 16

在录制播放时数十次那样做,那样一帧接一帧管理,显示出chroma-key的特效。

请看这几个实例。

1 赞 1 收藏 评论

这一步我们得以设置贰个特地的配备文件,并将参数依据有些事写入那一个布局文件中,再在程序中解析那个布局文件获得编码的参数。如若参数十分的少的话,大家能够直接选用命令行将编码参数字传送入就可以。

 

关于我:cucr

图片 17

和讯新浪:@hop_ping 个人主页 · 小编的稿子 · 17

图片 18

(2)、依照须要开头化必要的FFMpeg结构

 

率先,全体涉嫌到编解码的的功效,都应当要登记音录制编解码器之后本事选取。注册编解码调用下边包车型客车函数:

代码如下:

avcodec_register_all();
编解码器注册成功今后,遵照内定的CODEC_ID查找钦定的codec实例。CODEC_ID日常内定了编解码器的格式,在此间大家应用当前选取最为遍布的H.264格式为例。查找codec调用的函数为avcodec_find_encoder,其注明格式为:

 

AVCodec *avcodec_find_encoder(enum AVCodecID id);
该函数的输入参数为二个AVCodecID的枚举类型,重临值为三个指向AVCodec结构的指针,用于吸收接纳找到的编解码器实例。若无找到,那么该函数会回去叁个空指针。调用方法如下:

 

/* find the mpeg1 video encoder */
ctx.codec = avcodec_find_encoder(AV_CODEC_ID_H264); //根据CODEC_ID查找编解码器对象实例的指针
if (!ctx.codec)
{
fprintf(stderr, “Codec not foundn”);
return false;
}
AVCodec查找成功后,下一步是分配AVCodecContext实例。分配AVCodecContext实例须要大家前边查找到的AVCodec作为参数,调用的是avcodec_alloc_context3函数。其宣称方式为:

 1 <!DOCTYPE html>

AVCodecContext *avcodec_alloc_context3(const AVCodec *codec);
其特征同avcodec_find_encoder类似,重回三个指向AVCodecContext实例的指针。假使分配退步,会回来贰个空指针。调用方式为:

 2 <html>

ctx.c = avcodec_alloc_context3(ctx.codec); //分配AVCodecContext实例
if (!ctx.c)
{
fprintf(stderr, “Could not allocate video codec contextn”);
return false;
}
需注意,在分配成功之后,应将编码的参数设置赋值给AVCodecContext的成员。

 3 <head>

后天,AVCodec、AVCodecContext的指针都早就分配好,然后以那七个对象的指针作为参数展开编码器对象。调用的函数为avcodec_open2,表明格局为:

 4 <meta charset="utf-8" />

int avcodec_open2(AVCodecContext *avctx, const AVCodec *codec, AVDictionary **options);
该函数的前三个参数是我们刚刚确立的三个对象,第多个参数为三个字典类型对象,用于保存函数推行进程总不可能识别的AVCodecContext和另外一些私有设置选项。函数的再次来到值表示编码器是或不是张开成功,若成功再次来到0,失利重临一个负数。调用形式为:

 5 <style type="text/css">

if (avcodec_open2(ctx.c, ctx.codec, NULL) < 0) //根据编码器上下文张开编码器
{
fprintf(stderr, “Could not open codecn”);
exit(1);
}
接下来,大家供给管理AVFrame对象。AVFrame表示摄像原始像素数据的三个器皿,处理该项目数据须求四个步骤,其一是分配AVFrame对象,其二是分配实际的像素数量的蕴藏空间。分配对象空间类似于new操作符一样,只是供给调用函数av_frame_alloc。如果失利,那么函数重临二个空指针。AVFrame对象分配成功后,必要安装图像的分辨率和像素格式等。实际调用进程如下:

 6      canvas {

ctx.frame = av_frame_alloc(); //分配AVFrame对象
if (!ctx.frame)
{
fprintf(stderr, “Could not allocate video framen”);
return false;
}
ctx.frame->format = ctx.c->pix_fmt;
ctx.frame->width = ctx.c->width;
ctx.frame->height = ctx.c->height;
分红像素的囤积空间供给调用av_image_alloc函数,其宣称情势为:

 7     border-width: 5px;

int av_image_alloc(uint8_t *pointers[4], int linesizes[4], int w, int h, enum AVPixelFormat pix_fmt, int align);
该函数的几个参数分别代表AVFrame结构中的缓存指针、各类颜色分量的上涨的幅度、图像分辨率(宽、高)、像素格式和内部存款和储蓄器对其的分寸。该函数会重返分配的内部存款和储蓄器的分寸,如若退步则赶回三个负值。具体调用格局如:

 8     border-style: dashed;

ret = av_image_alloc(ctx.frame->data, ctx.frame->linesize, ctx.c->width, ctx.c->height, ctx.c->pix_fmt, 32);
if (ret < 0)
{
fprintf(stderr, “Could not allocate raw picture bufferSDK对YUV摄像种类实行编码,来探视机智的前端童鞋怎么防盗。n”);
return false;
}
(3)、编码循环体

 9     border-color: rgba(20, 126, 239, 0.50)

到此甘休,我们的备选专门的学问已经大概产生,上面开首荐行实际编码的大循环进度。用伪代码差相当少表示编码的流程为:

10 }

while (numCoded < maxNumToCode)
{
read_yuv_data();
encode_video_frame();
write_out_h264();
}
其中,read_yuv_data部分直接运用fread语句读取就可以,只须要知道的是,两个颜色分量Y/U/V的地址分别为AVframe::data[0]、AVframe::data[1]和AVframe::data[2],图像的上涨的幅度分别为AVframe::linesize[0]、AVframe::linesize[1]和AVframe::linesize[2]。须求专一的是,linesize中的值一般指的是stride并不是width,也正是说,像素保存区恐怕是带有一定幅度的不算边区的,在读取数据时需注意。

11 </style>

编码前别的部须要要完毕的操作时早先化AVPacket对象。该目的保存了编码之后的码流数据。对其举行开端化的操作特别不难,只供给调用av_init_packet并传播AVPacket对象的指针。随后将AVPacket::data设为NULL,AVPacket::size赋值0.

12 

中标将原有的YUV像素值保存到了AVframe结构中之后,便能够调用avcodec_encode_video2函数实行实际的编码操作。该函数可谓是总体工程的骨干所在,其阐明形式为:

13 </head>

int avcodec_encode_video2(AVCodecContext *avctx, AVPacket *avpkt, const AVFrame *frame, int *got_packet_ptr);
其参数和重临值的含义:

14 <body>

avctx: AVCodecContext结构,内定了编码的一部分参数;
avpkt: AVPacket对象的指针,用于保存输出码流;
frame:AVframe结构,用于传入原始的像素数量;
got_packet_ptr:输出参数,用于标志AVPacket中是否早就有了整机的一帧;
重回值:编码是还是不是成功。成功重回0,失败则赶回负的错误码
经过输出参数*got_packet_ptr,大家得以确定是否应当一帧完整的码流数据包输出,假设是,那么能够将AVpacket中的码流数据输出出来,其地方为AVPacket::data,大小为AVPacket::size。具体调用形式如下:

15 hello HTML5!

/* encode the image */
ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), ctx.frame, &got_output); //将AVFrame中的像素音信编码为AVPacket中的码流
if (ret < 0)
{
fprintf(stderr, “Error encoding framen”);
exit(1);
}

16 <canvas id="c1" width="300" height="300" ></canvas>

if (got_output)
{
//得到贰个完全的编码帧
printf(“Write frame = (size=])n”, frameIdx, ctx.pkt.size);
fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
av_packet_unref(&(ctx.pkt));
}
为此,三个完好无缺的编码循环提就可以动用上面包车型地铁代码实现:

17 </body>

/* encode 1 second of video */
for (frameIdx = 0; frameIdx < io_param.nTotalFrames; frameIdx )
{
av_init_packet(&(ctx.pkt)); //初始化AVPacket实例
ctx.pkt.data = NULL; // packet data will be allocated by the encoder
ctx.pkt.size = 0;

18 <script type="text/javascript">

fflush(stdout);

Read_yuv_data(ctx, io_param, 0);        //Y分量
Read_yuv_data(ctx, io_param, 1);        //U分量
Read_yuv_data(ctx, io_param, 2);        //V分量

ctx.frame->pts = frameIdx;

/* encode the image */
ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), ctx.frame, &got_output); //将AVFrame中的像素信息编码为AVPacket中的码流
if (ret < 0) 
{
    fprintf(stderr, "Error encoding framen");
    exit(1);
}

if (got_output) 
{
    //获得一个完整的编码帧
    printf("Write frame = (size=])n", frameIdx, ctx.pkt.size);
    fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
    av_packet_unref(&(ctx.pkt));
}

19   //canvas对象的拿走

} //for (frameIdx = 0; frameIdx < io_param.nTotalFrames; frameIdx )
(4)、收尾管理

20   var canvas=document.getElementById("c1");

即便大家就此甘休编码器的整整运营进度,我们会开采,编码完毕今后的码流相比较原本的数量少了一帧。那是因为大家是依赖读取原始像素数据结束来剖断循环甘休的,那样结尾一帧还保留在编码器中并未有输出。所以在关闭全部解码进程从前,我们亟须继续奉行编码的操作,直到将最后一帧输出截至。推行那项操作依然调用avcodec_encode_video2函数,只是代表AVFrame的参数设为NULL就能够:

21   //获得绘图用的上下文对象

/* get the delayed frames */
for (got_output = 1; got_output; frameIdx )
{
fflush(stdout);

22   var ctx=canvas.getContext("2d"); 

ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), NULL, &got_output);      //输出编码器中剩余的码流
if (ret < 0)
{
    fprintf(stderr, "Error encoding framen");
    exit(1);
}

if (got_output) 
{
    printf("Write frame = (size=])n", frameIdx, ctx.pkt.size);
    fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
    av_packet_unref(&(ctx.pkt));
}

23   //绘图管理

} //for (got_output = 1; got_output; frameIdx )
以后,大家就能够按安排关闭编码器的逐个零部件,甘休全数编码的流程。编码器组件的释放流程可类比创立流程,要求关闭AVCocec、释放AVCodecContext、释放AVFrame中的图像缓存和对象自己:

24   ctx.fillStyle="rgb(255,0,0)";

avcodec_close(ctx.c);
av_free(ctx.c);
av_freep(&(ctx.frame->data[0]));
av_frame_free(&(ctx.frame));
3、总结

25   ctx.fillRect(50,50,200,200);

行使FFMpeg举办摄像编码的要紧流程如:

26   ctx.fillStyle="rgba(0,0,255,0.5)";

首先深入分析、管理输入参数,如编码器的参数、图像的参数、输入输出文件;
创设全方位FFMpeg编码器的种种零部件工具,顺序依次为:avcodec_register_all -> avcodec_find_encoder -> avcodec_alloc_context3 -> avcodec_open2 -> av_frame_alloc -> av_image_alloc;
编码循环:av_init_packet -> avcodec_encode_video2(两次) -> av_packet_unref
闭馆编码器组件:avcodec_close,av_free,av_freep,av_frame_free

27   ctx.fillRect(100,100,200,200);

28   <!--alert("hello");-->

29 </script>

30 </html>

复制代码

知识点:

 

Canvas 的大旨用法

 

 1)取得Canvas对象

 

 2)从Canvas对象中获取绘图用的上下文

 

 3)使用上下文中的方法与性格举办绘图

 

 颜色的钦赐方法

 

  1)ctx.fillStyle="#FF0000";

 

  2)ctx.fillStyle="rgb(255,0,0)";

 

  3)ctx.fillStyle="rgba(0,0,255,0.5)"; 最终那一个指发光度的。。。

 

2.路径

 

  绘制多个粗略的三角形,效果:

 

 

 

 代码如下:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <style type="text/css">

 6      canvas {

 7     border-width: 5px;

 8     border-style: dashed;

 9     border-color: rgba(20, 126, 239, 0.50)

10 }

11 </style>

12 

13 </head>

14 <body>

15 hello HTML5!

16 <canvas id="c1" width="300" height="300" ></canvas>

17 </body>

18 <script type="text/javascript">

19   //canvas对象的拿到

20   var canvas=document.getElementById("c1");

21   //取得绘图用的上下文对象

22   var ctx=canvas.getContext("2d"); 

23   //路线绘制开端

24   ctx.beginPath();

25   //路线的绘图

26   ctx.moveTo(0,0);

27   ctx.lineTo(0,290);

28   ctx.lineTo(290,290);

29   //路线绘制甘休

30   ctx.closePath();

31   //进行绘图管理

32   ctx.fillStyle="rgb(200,0,0)"

33   ctx.fill();

34   <!--alert("hello");-->

35 </script>

36 </html>

复制代码

 知识点:

 

 调整路线时利用的点子:

  1) beginPath() 重新初始化路径的始发

 

  2) closePath() 关闭到前几日完毕的路子

 

  3) moveTo() 钦点绘图开首时的着珍视(x,y)

 

  4) lineTo() 绘制在此从前二次绘图地方到(x,y)的直线

 

 绘制路线时行使的不二等秘书籍:

 

 1)stroke() 绘制路线

 

 2)fill()填充路线

 

 钦命绘图样式时选拔的性质

 

 1)fillStyle 钦点填充时使用的颜料与体制

 

 2)strokeStyle 内定路径的线颜色与体制

 

 3)lineWidth 钦定路线线的粗细

 

  下边制作贰个当顾客触摸显示器时在触摸地点绘制三角形的实例程序 (书上的是顾客触摸显示屏时绘制,未来改一下,鼠标移动时在移动的职位绘制三角形)效果:

 

 

 

代码如下:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <meta name="viewport" content="width=320,user-scalable=no" />

 6 <style type="text/css">

 7      canvas {

 8     border-width: 5px;

 9     border-style: dashed;

10     border-color: rgba(20, 126, 239, 0.50)

11 }

12 </style>

13 

14 </head>

15 <body>

16 hello HTML5!

17 <canvas id="c1" width="300" height="300" ></canvas>

18 </body>

19 

20 <script type="text/javascript">

21 

22 function getPointOnCanvas(canvas, x, y) {

23   var bbox = canvas.getBoundingClientRect();

24   return { x: x - bbox.left * (canvas.width / bbox.width),

25        y: y - bbox.top * (canvas.height / bbox.height)};

26 }

27   //canvas对象的取得

28   var canvas=document.getElementById("c1");

29   //猎取绘图用的上下文对象

30   var ctx=canvas.getContext("2d"); 

31   //设置Canvas的onmouse事件

32   canvas.onmousemove=function(event)

33   {

34       //获得鼠标移动处的坐标

35       var x=event.pageX;

36       var y=event.pageY;

37       var canvas=event.target;

38       var loc=getPointOnCanvas(canvas,x,y);

39       console.log("mouse down at point(x:" loc.x ",y:" loc.y ")");

40       

41       var r=Math.random()*10 25;

42       //路线钦命

43       

44       ctx.beginPath();

45       ctx.moveTo(loc.x,loc.y);

46       ctx.lineTo(loc.x,loc.y r);

47       ctx.lineTo(loc.x r,loc.y r);

48       ctx.lineTo(loc.x,loc.y);

49       

50       //绘图

51       ctx.strokeStyle="red";

52       ctx.stroke();

53   };

54 </script>

55 </html>

复制代码

蒙受的主题素材,刚开端取不到鼠标移动处的坐标,借鉴了 那么些中的艺术,把效果做出来了,注意console.log()的选择,看下代码运维时的效劳:

 

 

 

 3.颜色定义

 

 这一小节以为书上争取不太合理,小编实现以下这些程序是为着熟悉下JS代码

 

 效果:

 

 

 

代码如下:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <meta name="viewport" content="width=320,user-scalable=no" />

 6 <style type="text/css">

 7      canvas {

 8     border-width: 5px;

 9     border-style: dashed;

10     border-color: rgba(20, 126, 239, 0.50)

11 }

12 </style>

13 <script> 

14 (function(){

15           window.addEventListener("load",function(){

16                var ctx=document.getElementById("c1").getContext("2d");

17                //圆1

18                ctx.beginPath();

19                ctx.arc(150,45,35,0,Math.PI*2,false);

20                ctx.fillStyle='rgba(192,80,77,0.7)';   

21                ctx.fill();

22                ctx.strokeStyle='rgba(192,80,77,1)';

23                ctx.stroke();

24                

25                //圆2

26                ctx.beginPath();

27                ctx.arc(125,95,35,0,Math.PI*2,false);

28                ctx.fillStyle='rgba(155,187,89,0.7)';

29                ctx.fill();

30                ctx.strokeStyle='rgba(155,187,89,1)';

31                ctx.stroke();

32                

33                //圆3

34                ctx.beginPath();

35                ctx.arc(175,95,35,0,Math.PI*2,false);

36                ctx.fillStyle='rgba(128,100,162,0.7)';

37                ctx.fill();

38                ctx.strokeStyle='rgba(128,100,162,1)';

39                ctx.stroke();},     false);                                                

40           })();

41 </script>

42 </head>

43 <body>

44 hello HTML5!

45 <canvas id="c1" width="300" height="150" ></canvas>

46 </body>

47 </html>

复制代码

知识点:

 

1)描绘概况线

 

ctx.strokeStyle="#ff0000";

 

2)填充轮廓

 

ctx.fillStyle="#0000ff";

 

 我本身从中练习的知识点应该是

 

  1)佚名函数 (function(){})();的施用

 

  2)window.addEventListener("load",function(){},false);

 

4.制图方法的牵线

 

  1) 绘制圆弧的arc()方法

 

      arc()方法的语法如下:context.arc(x,y,半径,早先角度,甘休角度,是或不是逆时针旋转);

 

      从钦定的发端角度起首至结束角度结束,按钦定方向扩充圆弧绘制。最终的参数为ture时,将按逆时针旋转。角度不是“度”,而是“弧度”。

 

 效果:

 

 

 

代码如下:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <style type="text/css">

 6      canvas {

 7     border-width: 5px;

 8     border-style: dashed;

 9     border-color: rgba(20, 126, 239, 0.50)

10 }

11 </style>

12 

13 </head>

14 <body>

15 hello HTML5!

16 <canvas id="c1" width="300" height="300" ></canvas>

17 <script type="text/javascript">

18   var canvas=document.getElementById("c1");

19   var ctx=canvas.getContext("2d");

20   

21   //使用颜色填充矩形

22   ctx.fillStyle="#f00ff0";

23   ctx.fillRect(0,0,300,300);

24   //描绘圆弧

25   //路线发轫

26   ctx.beginPath();

27   var startAngle=0;

28   var endAngle=120*Math.PI/180;

29   ctx.arc(100,100,100,startAngle,endAngle,false);

30   

31   //绘制管理

32   ctx.strokeStyle="#ff0000";

33   ctx.lineWidth=3;

34   ctx.stroke();

35 </script>

36 </body>

37 </html>

复制代码

 写完后对arc()方法通晓多一点了。x,y是圆心的坐标,以往得以虚拟得出是如何画出来的。。。

 

2)绘制圆弧的arcTo()方法

 

  arcTo()方法的语法如下:

 

  context.arcTo(x1,y1,x2,y2,半径);

 

  此方法的效劳是,从路线的源点和终点分别向坐标(x1,y1)、(x2,y2)绘制直线后,在绘制钦命半径的半圆形。

 

  效果:

 

 

 

代码如下:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <style type="text/css">

 6      canvas {

 7     border-width: 5px;

 8     border-style: dashed;

 9     border-color: rgba(20, 126, 239, 0.50)

10 }

11 </style>

12 

13 </head>

14 <body>

15 hello HTML5!

16 <canvas id="c1" width="300" height="300" ></canvas>

17 <script type="text/javascript">

18   var canvas=document.getElementById("c1");

19   var ctx=canvas.getContext("2d");

20   

21   //使用颜色填充矩形

22   ctx.fillStyle="#f00ff0";

23   ctx.fillRect(0,0,300,300);

24   //描绘圆弧

25   //路线早先

26   ctx.beginPath();

27   ctx.moveTo(20,20);

28   ctx.arcTo(290,150,100,280,100);

29   ctx.lineTo(20,280);

30   

31   //绘制管理

32   ctx.strokeStyle="#ff0000";

33   ctx.lineWidth=3;

34   ctx.stroke();

35 </script>

36 </body>

37 </html>

复制代码

和煦改了下坐标,效果加深对这一个主意的领悟。。。

 

3)quadraticCurveTo()与bezierCurveTo()方法

 

   ① quadraticCurveTo()方法用于绘制二元抛物线,其语法格式如下。

 

      context.quadraticCurveTo(cpx,cpy,x,y);

 

      绘制由最终钦点的任务上马至坐标(x,y)的曲线。此时,使用调节点为(cpx,cpy)的二元抛物线进行连接,并将地点(x,y)追加到路径中。

 

   ② bezierCurveTo()方法用于绘制安慕希抛物线,语法格式为:

 

      bezierCurveTo(cp1x,cp1y,cp2x,cp2y,x,y);

 

      绘制由最终钦赐路径地点至钦赐地方的曲线。此时,使用调控点分别为(cp1x,cp1y),(cp2x,cp2y)的伊利抛物线实行一连,并将地方(x,y)追加到路线中,具体含蓄表示图:(qq上对图纸的修饰仿佛还非常不够熟知。。。)

 

    

 

代码如下:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <style type="text/css">

 6      canvas {

 7     border-width: 5px;

 8     border-style: dashed;

 9     border-color: rgba(20, 126, 239, 0.50)

10 }

11 </style>

12 

13 </head>

14 <body>

15 hello HTML5!

16 <canvas id="c1" width="300" height="300" ></canvas>

17 <script type="text/javascript">

18   var canvas=document.getElementById("c1");

19   var ctx=canvas.getContext("2d");

20   

21   //使用颜色填充矩形

22   ctx.fillStyle="#f00ff0";

23   ctx.fillRect(0,0,300,300);

24   //描绘圆弧

25   //路线开端

26   ctx.beginPath();

27   ctx.moveTo(20,20);

28   ctx.bezierCurveTo(100,280,180,280,280,20);

29   

30   

31   //绘制管理

32   ctx.strokeStyle="#ff0000";

33   ctx.lineWidth=3;

34   ctx.stroke();

35 </script>

36 </body>

37 </html>

复制代码

4)绘制矩形的rect()方法

 

  语法格式如下:context.rect(x,y,宽度,中度); x,y为矩形左上角坐标

 

  除此而外,Canvas中还提供了二种特定的矩形绘制方法;

 

 ① context.strokeRect(x,y,w,h)    绘制矩形的概况

 

 ② context.fillRect(x,y,w,h)   填充矩形

 

 ③ context.clearRect(x,y,w,h) 清空矩形

 

 那几个比较好精通就不做效果演示及代码。

 

5.绘制渐变效果

 

    线性渐变与圆圈渐变

 

   线性渐变就是从左至右(或自上而下)依次展现逐步变化的颜色。而圆形渐变自圆心向外围渐渐显示变化的水彩。

 

 1)线性渐变

 

    钦定线性渐变时行使createLinearGradient()方法,具体语法如下:

 

   //先创设CanvasGradient对象: CanvasGradient=context.createLinearGradient(x1,y1,x2,y2);  表示由地点(x1,y1)至地方(x2,y2)突显渐变效果

 

   //然后追加渐变颜色:CanvasGradient.addColorStop(颜色开端的周旋地点,颜色);   钦赐渐变中运用的水彩,第叁个参数(起初相对地方)中钦赐二个数字,进而调整哪些地点选择什么颜色。

 

举个栗子:

 

 

 

  代码为:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <style type="text/css">

 6      canvas {

 7     border-width: 5px;

 8     border-style: dashed;

 9     border-color: rgba(20, 126, 239, 0.50)

10 }

11 </style>

12 

13 </head>

14 <body>

15 hello HTML5!

16 <canvas id="c1" width="300" height="300" ></canvas>

17 <script type="text/javascript">

18   var canvas=document.getElementById("c1");

19   var ctx=canvas.getContext("2d");

20   

21   //绘图

22   var g=ctx.createLinearGradient(0,0,300,0);

23   g.addColorStop(0,"rgb(255,0,0)"); //最初地点设置为革命

24   g.addColorStop(1,"rgb(255,255,0)"); //黄色

25   ctx.fillStyle=g;

26   ctx.fillRect(20,20,260,260);

27 </script>

28 </body>

29 </html>

复制代码

 2)圆形渐变

 

 绘制圆形渐变时,使用createRadialGradient()方法创造对象,一样选用addColorStop()方法追加渐变颜色。具体语法如下

 

  //创设CanvasGradient对象  CanvasGradient=context.createRadialGradient(x1,y1,r1,x2,y2,r2);  通过参数钦点以(x1,y1)为圆心,半径为r1的圆到以(x2,y2)为圆心,半径为r2的圆的渐变效果

 

  // 追加渐变颜色   CanvasGradient.addColorStop(颜色初始的相对地点,颜色);

 

 举个栗子

 

  

 

 代码为:

 

 

复制代码

 1 <!DOCTYPE html>

 2 <html>

 3 <head>

 4 <meta charset="utf-8" />

 5 <style type="text/css">

 6      canvas {

 7     border-width: 5px;

 8     border-style: dashed;

 9     border-color: rgba(20, 126, 239, 0.50)

10 }

11 </style>

12 

13 </head>

14 <body>

15 hello HTML5!

16 <canvas id="c1" width="300" height="300" ></canvas>

17 <script type="text/javascript">

18   var canvas=document.getElementById("c1");

19   var ctx=canvas.getContext("2d");

20   

21   //绘图

22   var g=ctx.createRadialGradient(150,150,50,150,150,100);

23   g.addColorStop(0.3,"red"); //最早地点设置为天蓝

24   g.addColorStop(0.7,"yellow");

25   g.addColorStop(1.0,"blue"); //黄色

26   ctx.fillStyle=g;

27   ctx.fillRect(20,20,260,260);

28 </script>

29 </body>

30 </html>

复制代码

 6.绘制图像

 

Canvas 中的图像绘制

 

 图像绘制的大旨步骤如下:

 

  1)读取图像文件

 

  2)在Canvas中开展绘图

 

 图像读取前,首先创制Image对象,在Image对象的src属性中指定图像文件所在路线后就能够读取了。读取甘休后,触发onload事件,基本语法如下:

 

  var image=new Image();

 

  image.src="图像文件路线";

 

  image.onload=function(){//图像读取时的处理}

 

 使用Canvas上下文中的drawImage()方法将读取后的Image对象绘制在Canvas上,实际上是将Image对象中的图像数据输出到Canvas中。有二种drawImage()方法用于图像的绘图

 

  ①直接绘制 context.drawImage(image,dx,dy)

 

  ②尺寸修改(resize) context.drawImage(image,dx,dy,dw,dh)

 

  ③图像截取 context.drawImage()

 

 第①种办法直接将读取的图像绘制在坐标(dx,dy)处。第②种格局依照新的上升的幅度dw与中度dh将图像绘制在坐标(dx,dy)处。第③种办法是将原图像的一片段截抽取后再按钦赐尺寸绘制在Canvas上,从原图像的坐标(sx,sy)初步截取宽(sw),高(sh)的部分图像,然后绘制在Canvas上的坐标(dx,dy)处,宽度为dw,高度为dh。

 

像素管理

 

 Canvas与SVG以及Flash稍有分化,绘制的图片/图像并无法看做靶子操作。相当于说使用stroke()或许fill()方法绘制的图形,既不能够移动它也无法去除它。假如想操作绘制的图片/图像,使用SVG或许Flash实现比采纳Canvas要好。

 

 Canvas中绘制的图纸/图像作为多少个完好的位图保存,因而能够访问各样像素消息。也正是说,能够行使JavaScript管理Canvas上制图的图像像素消息。这是Canvas的贰个表征

 

1)像素处理的API

 

 imagedata=ctx.getImageData(sx,sy,sw,sh) 再次回到以(sx,sy)为左上顶点,宽为sw,高为sh的矩形图像-imagedata对象。

 

 ctx.putImageData(imagedata,dx,dy) 将imagedata所代表的图像绘制在顶点坐标为(dx,dy)处。

 

简述之,使用getImageData()方法收取Canvas上图像的像素数量,通过JavaScript加工过那么些像素数量后,使用putImageData方法,重新绘制到Canvas中。

 

 ImageData对象是象征图像像素数量的指标。此目的定义了二种属性:

 

   ①imagedata.width  图像数据的宽窄

 

   ②imagedata.height 图像数据的冲天

 

   ③imagedata.data  图像数量(CanvasPixelArray类型)

 

在JavaScript中开展像素数据读取,并拓宽加工与出口时的具体操作是,从imagedata.data中赢得CanvasPixelArray类型的对象。此指标是保留像素新闻的一元数组。可是与JavaScript的Array对象不相同,不可对其开展与普通数组同样的操作。

 

举个栗子:(本例中,当顾客将桌面上的图像文件拖动到浏览器中后,首先读取图像文件并在浏览器中显得,接着对图像举行是非转换,在原图的边沿突显转变后的图像)

 

 顾客将桌面上的图像文件拖动到浏览器中的分界面:

 

 

 

 实行是非转变后的意义:

 

 

 

代码如下:

 

 

复制代码

  1 <!DOCTYPE html>

  2 <html>

  3 <head>

  4 <meta charset="utf-8" />

  5 <style type="text/css">

  6 body{

  7     font-family:宋体,Arial,Helvetica,sans-serif;

  8     font-size:80%;

  9     }

 10 #dp{

 11    width:200px;

 12    min-height:70px;

 13    border:1px solid #000000;

 14    background-color:#eeeeee;

 15    padding:len;

 16    margin:2em;

 17     }

 18 #dp img{

 19         margin-right:lem;

 20         }

 21 </style>

 22 <script>

 23 (function(){

 24           

 25           //拖动区域的div成分

 26           var dp=null;

 27           //FileReader接口对象

 28           var reader=null;

 29           

 30           //页面导入时的拍卖

 31           window.addEventListener("load",function(){

 32                  //获取拖动区域的div成分

 33                  dp=document.getElementById("dp");

 34                  //设置dragover事件的轩然大波侦听

 35                  dp.addEventListener("dragover",function(evt){

 36                                                          evt.preventDefault();},false);

 37                  //设置drop事件的事件侦听

 38                  dp.addEventListener("drop",function(evt){

 39                                                      evt.preventDefault();

 40                                                      file_droped(evt);},false);

 41                                                   },false);

 42           

 43           //文件被拖入时的管理

 44           function file_droped(evt)

 45           {

 46             //清空显示区域

 47             while(dp.firstChild)

 48             {

 49                 dp.removeChild(dp.firstChild);

 50             }

 51             //拖动文件的File接口对象

 52             var file=evt.dataTransfer.files[0];

 53             //FileReader接口对象

 54             reader=new FileReader();

 55             //非图像文件画像时报错

 56             if(!/^image/.test(file.type)){alert("请拖入图像文件");}

 57             //导入拖入图像

 58             reader.readAsDataURL(file);

 59             reader.onload=prepare_image;

 60           }

 61             

 62          //呈现拖入图像文件

 63          function prepare_image(evt)

 64          {

 65              //创制img成分,展现拖入的图像

 66              var image=document.createElement("img");

 67              image.setAttribute("src",reader.result);

 68              dp.appendChild(image);

 69              //img成分中程导弹入图像文书档案后开展后续管理

 70              image.onload=function(){

 71                  //获取图像的尺寸

 72                  var w=parseInt(image.width);

 73                  var h=parseInt(image.height);

 74                  //创设canvas对象,导入图像

 75                  var canvas=document.createElement("canvas");

 76                  canvas.width=w;

 77                  canvas.height=h;

 78                  var ctx=canvas.getContext("2d");

 79                  ctx.drawImage(image,0,0);

 80                  //获得canvas像素数据

 81                  var imagedata=ctx.getImageData(0,0,w,h);

 82                  

 83                  //进行是非调换

 84                  convert_image_to_gray_scale(imagedata.data);

 85                  

 86                  //替换canvas中的像素数量

 87                  ctx.putImageData(imagedata,0,0);

 88                  

 89                  //显示canvas

 90                  dp.appendChild(canvas);

 91                  }

 92          }

 93          

 94          //黑白调换函数

 95          function convert_image_to_gray_scale(data)

 96          {

 97              var len=data.length;

 98              var pixels=len/4;

 99              for(var i=0;i<pixels;i ){

100                  //取出R,G,B值

101                  var r=data[i*4];

102                  var g=data[i*4 1];

103                  var b=data[i*4 2];

104                  

105                  //举办是非转变

106                  var t=parseInt((11*r 16*g 5*b)/32);

107                  //将调换后的像素数量设置到原本数组成分中

108                  data[i*4]=t;

109                  data[i*4 1]=t;

110                  data[i*4 2]=t;

111                  }

112          }

113                  

114     })();

115 </script>

116 

117 </head>

118 <body>

119 <div id="dp">

120 <p>将桌面图像文件拖动到这里。</p>

121 </div>

122 </body>

123 </html>

看的是HTML5平移支付即学即用那本书,首先学习Canvas基础,废话异常少说,直接看率先个例证。 代码如下: 1 !DOCTYPE html 2...

本文由星彩网app下载发布于前端技术,转载请注明出处:SDK对YUV摄像种类实行编码,来探视机智的前端童

TAG标签:
Ctrl+D 将本页面保存为书签,全面了解最新资讯,方便快捷。