查看详情

使用 DOMParser 解析 XML 文件

大家可能偶尔会有碰到在 Web 端处理 XML 的文件 Case. 之前大家可能第一时间想的是正则表达式。 我们经常用它来进行标签或者属性的匹配。 但是今天会给大家带来一种全新的思路。我们知道 XHTML 是 XML 的子集。而且很早 HTML 就开始自己自定义的标签了。因此我们可以尝试借助 DOM Node 的思想把我们的 XML 文件字符串来进行 Dom 节点的转换。 var parser, xmlDoc; var text = `<?xml version="1.0" encoding="UTF-8"?> <!--Generated with https://github.com/google/shaka-packager version v1.5.1-c540e5a-release--> < 详情 »

查看详情

loadedData,loadedMetadata,canplay 什么时候播放最好

最近一直在做 MSE 相关的事情,机缘巧合下碰到了关于 ReadyState 和它有可能触发的事情的研究,于是写下这篇文章作为记录。 前面一篇文章 HTML5 Video 元素 Ready State 分析 分析了 readyState 状态的具体含义,今天则会根据状态和关键事件来进行分析。 VIdeo 关于启动播放,有下面这些事件选择: loadedmetadata: 事件在元数据(metadata)被加载完成后触发 loadeddata: 事件在媒体当前播放位置的视频帧(通常是第一帧)加载完成后触发。 canplay: 事件在终端可以播放媒体文件时(但估计还没有加载足够的数据来播放媒体直到其结束,即后续可能需要停止以进一步缓冲内容)被触发。 canplaythrough: 事件在终端可以播放媒体文件时(估计已经加载了足够的数据来播放媒体直到其结束,而不必停止以进一步缓冲内容)被触发。 我们可以看到事件先后顺序是: loadedmetadata -> loadeddata -> canplay -> canplaythrough 我们再看看 3G 网速下的测试效果: 可以看到还是 loadedmetadata -& 详情 »

查看详情

【译】如何轻松的在你的Oculus 设备上测试的 WebXR 项目

原文链接: https://medium.com/@lazerwalker/how-to-easily-test-your-webvr-and-webxr-projects-locally-on-your-oculus-quest-eec26a03b7ee WebXR 目前还是特别小众的项目,所以在 Oculus 上调试也是需要一些实践的,希望这篇文章可以提升这方面的效率 最近,我花了很多时间使用 Babylon.js 制作 VR 游戏原型。我喜欢 Babylon 和 WebXR API 等技术如何让我利用现代 Web 开发的快速迭代时间构建 VR 体验,而不是使用 Unity 等较慢的编译循环。 也就是说,直到最近,我的开发工作流程中有一部分让我很恼火! 我的大部分测试都是在 Oculus Quest 上进行,开发则在 Mac 上进行。WebVR 和 WebXR API 都要求您从通过 HTTPS(而不是非安全 HTTP)提供服务的网页访问它们,大多数浏览器都为localhost. 由于我使用的是 Mac,因此无法通过 Quest 详情 »

查看详情

CSS 渐变字体实现

最近同事实现了 CSS 渐变的边框,于是乎自己想了下如何实现这个渐变字体。如果你有 SVG 经验的话,可能会非常快速的找到方法;当然如果你知道 canvas 肯定也是一个比较费力的解决方案,我们这里主要说下纯 CSS 的解决方案. 这里需要利用几个属性: background-clip 设置元素的背景(背景图片或颜色)是否延伸到边框、内边距盒子、内容盒子下面 -webkit-text-fill-color 指定了文本字符的填充颜色。若未设置此属性,则使用 color 属性的值。 我们通过填充渐变背景,并且将于背景延伸到字体内容即可。 span { font-size: 72px; font-family: arial; background: linear-gradient(90deg, #12c2e9, #c471ed, #f64f59); -webkit-background-clip: text; -webkit-text-fill-color: transparent; } 改变渐变方向 .flare { font-size: 72px; background: linear-gradient(#f12711, #f5af19); -webkit-background-clip: text; -webkit-text-fill-color: transparent; 详情 »

查看详情

TP 50 小计

在新公司由于工程师会更多的参加到数据分析中来,因此有的术语,尤其英文环境下还是需要去了解和学习的。比如 TP 50. 自己才开始看到时候还有些差异,但是透过上下文是能猜出什么意思来的。 这个是亚马逊的测试童鞋发给我的,自己之前确实没有太多统计学的工作经验,因此记录一下。 Top percentitle, TP 是一个统计学术语,表示一组数据按照从小到大排序,并计算器累计百分位则某一百分位的值就为这百分位数。 常见的我们会听到 TP50, TP90, TP99。 比如 一组数据 [10s, 1000s, 100s, 2s] 表示请求时长。 排完序后 [2s, 10s, 100s, 1000s] TP 50 就是 Math.ceil(4 * 0.5) = 2 也就是第二位的值 10s; TP 90 就是 Math.ceil(4 * 0.9) = 4 也就是最后一个 1000s。 有的运算会更加精细, 详情 »

查看详情

HTML5 Video VideoPlaybackQuality 实现丢帧统计

在 Web 开发中,我们依赖于 Video 元素进行视频播放,相对 Android 或者 Windows 客户端程序,我们更加依赖浏览器测对 Video 元素提供了什么样的能力。 而如果我们需要对丢帧率进行统计,现在有了 VideoPlaybackQuality 来完成改功能。 目前主流浏览器都得到了支持 VideoPlaybackQuality 对象表示了一系列描述视频播放质量的指标。 可以通过 HTMLVideoElement.getVideoPlaybackQuality() 创建一个实例来获取。 里面包含下面的属性; .creationTime 一个用毫秒表示从开始页面浏览到对象创建的 DOMHighResTimeStamp 对象 .totalVideoFrames 表示相 HTMLVideoElement 自从创建起的已创建和丢弃帧数数量总和的值 .droppedVideoFrames 表示相关联的 HTMLVideoElement 自从创建起的已丢弃帧数数量值 .corruptedVideoFrames 一个表示相关联的 HTMLVideoElement 自从创建起的损坏帧数数量的值。一个损坏帧可能属于创建帧或丢弃帧 这样我们通过简单的 droppedVideoFrames / totalVideoFrames 来实现一个丢帧比例的计算,从而实现一个质量的保证。而 hls.js-fps-controller.ts 也是采用相关 API 来实现播控质量的控制。 checkFPSInterval( 详情 »

查看详情

HTML5 Video 元素 Ready State 分析

最近一直在做 MSE 相关的事情,机缘巧合下碰到了关于 ReadyState 和它有可能触发的事情的研究,于是写下这篇文章作为记录。 Video 元素维持内部几个非常重要的状态,这些都是只读的: paused 属性,你可以直接从 video elment 上读取,当你暂停视频的时候,Video 元素会讲这个属性值改为 true, 这里还有一些别的情况,我会在后面一篇文章分析 readyState 属性,当然你也可以从 Video 元素上读取,不同 readyState 意味着 video 的不同状态。 官方罗列了这些状态值: // video element ready state Enum const unsigned short HAVE_NOTHING = 0; const unsigned short HAVE_METADATA = 1; const unsigned short HAVE_CURRENT_DATA 详情 »

查看详情

对于 Web 开发者非常有用的 ADB 命令

虽然 adb 是 Android 开发的同学经常用到的命令行工具,但是对于做一些 Webview 页面的调试或者 Hybrid App 开发前端同学,可能有的时候也需要接触下,尤其进行关键日志的搜集和查找。这里罗列下自己经常会用到的,记录下。 罗列当前的包名,可以展示当前安装的包的。 adb shell cmd package list packages 进行某些包的日志输出,比如你可以换成自己的应用包名。 adb logcat --pid=`adb shell pidof -s xxx.your.pakcage.com` 显示某个包当前的一些系统信息,比如运行内存信息,关于 Android 的内存,你可以读这篇文章了解更加每个参数含义: https://developer.android.com/tools/dumpsys#meminfo adb shell dumpsys meminfo | find 'com.xxx. 详情 »

查看详情

从 Netflix A/B 测试所学到的

最近细读了 Netflix 关于 A/B 测试的分享, 系列文章链接: Part1-奈飞的决策 Part2-什么是A/B 测试 part3-解释A/B测试:假阳性和统计显著性 Part4-解释A/B测试结果:假阴性和权威 part5-建立对决策的信心 最近自己在实践中开始有一些问题或者一些困扰,但是这一些列文章很好的给出了我们一些解释; 什么是 A/B 测试 来自 WIKI的定义: A/B测试为一种随机测试,将两个不同的东西(即A和B)进行假设比较[1][2]。该测试运用统计学上的假设检定和双母体假设检定。 A/B测试可以用来测试某一个变量两个不同版本的差异,一般是让A和B只有该变量不同,再测试其他人对于A和B的反应差异,再判断A和B的方式何者较佳 Netflix 举了一个简单的例子: 比如我们想了解将电视用户界面中所有方框图翻转的体验是否对我们的会员有好处。 为了运行实验,我们选取​​成员的子集(通常是简单的随机样本),然后使用随机分配将该样本均匀地分成两组。“A 组”通常被称为“对照组”,继续获得基本的 Netflix UI 体验,而“ 详情 »

查看详情

【译】了解像素密度和视网膜分辨率,以及为什么它对 AR/VR 头显很重要

原文链接: https://www.roadtovr.com/understanding-pixel-density-retinal-resolution-and-why-its-important-for-vr-and-ar-headsets/ 虽然我们大多数人习惯于处理描述像素数的分辨率数字(即:1920×1080 显示器),但以每度像素表示的像素密度是一个更有用的数字,尤其是在处理 AR 和 VR 头显时。实现“视网膜分辨率”是耳机的最终目标,在一定的像素密度下,即使是视力完美的人也无法辨别任何额外的细节。本文探讨了这些概念,并了解了当今头戴式设备与视网膜分辨率的差距。 Yuval Boger 的客座文章 Yuval 是Sensics的首席执行官和OSVR的联合创始人。Yuval 和他的团队设计了 OSVR 软件平台并构建了 OSVR 产品的关键部分。他经常在他的博客上分享他的观点和知识。 如果人眼是一台数码相机,它的“数据表”会说它有一个能够在中央凹(视力最高的视网膜部分)检测 60 像素/度的传感器。对于视觉质量,任何超过 60 像素/度的显示器本质上都是在浪费分辨率,因为眼睛无法捕捉到更多细节。这称为视网膜分辨率或眼睛限制分辨率。 这意味着,如果有一张 3,600 详情 »