专注于 JetBrains IDEA 全家桶,永久激活,教程
持续更新 PyCharm,IDEA,WebStorm,PhpStorm,DataGrip,RubyMine,CLion,AppCode 永久激活教程

在浏览器中使用js-spark-md5计算文件的MD5

在浏览器中使用js-spark-md5计算文件的MD5

最近开发一个视频系统,用户需要把文件上传到服务器。服务器再上传到转码服务器,编码为m3u8格式。我觉得客户端可以直接上传到转码服务器。对转码服务器设置了跨域后,客户端可以直接上传视频文件,但是上传接口需要文件的MD5值,网上找了一个口碑极好的MD5库 js-spark-md5(据说性能是最牛逼的)

github.com/satazor/js-…

官方的Demo

document.getElementById('file').addEventListener('change', function () {
    var blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice,
        file = this.files[0],
        chunkSize = 2097152,                             // Read in chunks of 2MB
        chunks = Math.ceil(file.size / chunkSize),
        currentChunk = 0,
        spark = new SparkMD5.ArrayBuffer(),
        fileReader = new FileReader();

    fileReader.onload = function (e) {
        console.log('read chunk nr', currentChunk + 1, 'of', chunks);
        spark.append(e.target.result);                   // Append array buffer
        currentChunk++;

        if (currentChunk < chunks) {
            loadNext();
        } else {
            console.log('finished loading');
            console.info('computed hash', spark.end());  // Compute hash
        }
    };

    fileReader.onerror = function () {
        console.warn('oops, something went wrong.');
    };

    function loadNext() {
        var start = currentChunk * chunkSize,
            end = ((start + chunkSize) >= file.size) ? file.size : start + chunkSize;

        fileReader.readAsArrayBuffer(blobSlice.call(file, start, end));
    }

    loadNext();
});

看起来似乎有点儿麻烦,主要是对文件进行切片后,依赖fileReader把分配的文件数据读取为array buffer字节数组。而这个读取操作是异步的,只有通过监听fileReaderonload事件来获取到。这种异步的行为,增加了一点点复杂度。

我想API如果设计成这样的话,更讨人喜欢。(伪代码)

// 分片大小,1Mb
const CHUNK_SIZE = 1024 * 1024;
// 文件
const file = ....;
// 文件大小
const size = file.size;
// 总分片数量
let totalChunk = Math.ceil(size / CHUNK_SIZE);
// spark  用于计算md5
const spark = new SparkMD5.ArrayBuffer(),

for (let i = 0; i < totalChunk; i ++){
    let start = i * CHUNK_SIZE;
    let end = ((start + CHUNK_SIZE) >= size) ? size : start + CHUNK_SIZE;
    // 分片的文件
    let chunk = file.slice(start, end);
    // 添加到spark
    spark.append(chunk);
}
// 计算出md5
const md5 = spark.end();

我封装了一个方法,似乎用起来简单了一丢丢

这个md5方法,传递一个file对象和一个chunkSize参数,返回一个 Promise,在then回调中,会把md5以形参的方式传递。

/**
 * @param file 文件
 * @param chunkSize 分片大小
 * @returns Promise
 */
function md5(file, chunkSize) {
    return new Promise((resolve, reject) => {
        let blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice;
        let chunks = Math.ceil(file.size / chunkSize);
        let currentChunk = 0;
        let spark = new SparkMD5.ArrayBuffer();
        let fileReader = new FileReader();

        fileReader.onload = function(e) {
            spark.append(e.target.result); 
            currentChunk++;
            if (currentChunk < chunks) {
                loadNext();
            } else {
                let md5 = spark.end();
                resolve(md5);
            }
        };

        fileReader.onerror = function(e) {
            reject(e);
        };

        function loadNext() {
            let start = currentChunk * chunkSize;
            let end = start + chunkSize;
            if (end > file.size){
                end = file.size;
            }
            fileReader.readAsArrayBuffer(blobSlice.call(file, start, end));
        }
        loadNext();
    });
}

测试一下

<!DOCTYPE html>
<html>
    <head>
        <meta charset="UTF-8">
        <title>Upload</title>
    </head>
    <body>
        <input type="file" onchange="change(this);"/>
    <!-- spark-md5.js 库-->
    <script type="text/javascript" src="./spark-md5.js"></script>
    <script type="text/javascript">

        function change(node){
            md5(node.files[0], 1024).then(e => {
                // 获取到文件的md5
                console.log("md5=" + e);
            }).catch(e => {
                // 处理异常
                console.error(e);
            });
        }

        /**
         * 计算文件的MD5 
         * @param file 文件
         * @param chunkSize 分片大小
         * @returns Promise
         */
        function md5(file, chunkSize) {
            return new Promise((resolve, reject) => {
                let blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice;
                let chunks = Math.ceil(file.size / chunkSize);
                let currentChunk = 0;
                let spark = new SparkMD5.ArrayBuffer();
                let fileReader = new FileReader();

                fileReader.onload = function(e) {
                    spark.append(e.target.result); 
                    currentChunk++;
                    if (currentChunk < chunks) {
                        loadNext();
                    } else {
                        let md5 = spark.end();
                        resolve(md5);
                    }
                };

                fileReader.onerror = function(e) {
                    reject(e);
                };

                function loadNext() {
                    let start = currentChunk * chunkSize;
                    let end = start + chunkSize;
                    if (end > file.size){
                        end = file.size;
                    }
                    fileReader.readAsArrayBuffer(blobSlice.call(file, start, end));
                }
                loadNext();
            });
        }
    </script>
    </body>
</html>

最终计算结果,无误

使用Windows自带的certutil对磁盘文件进行MD5计算

35_1.png

地址:springboot.io/t/topic/217…

文章永久链接:https://tech.souyunku.com/35538

未经允许不得转载:搜云库技术团队 » 在浏览器中使用js-spark-md5计算文件的MD5

JetBrains 全家桶,激活、破解、教程

提供 JetBrains 全家桶激活码、注册码、破解补丁下载及详细激活教程,支持 IntelliJ IDEA、PyCharm、WebStorm 等工具的永久激活。无论是破解教程,还是最新激活码,均可免费获得,帮助开发者解决常见激活问题,确保轻松破解并快速使用 JetBrains 软件。获取免费的破解补丁和激活码,快速解决激活难题,全面覆盖 2024/2025 版本!

联系我们联系我们