最近碰到一个需求,要实现和微信公众号一样的阅读全文的功能。

然后找到了_window.speechSynthesis_这个API,在翻阅大量资料和网站后,发现在很多资料里,关于这个api的描述都不是很齐全,或是属性值的区间没有描述,或是浏览器的支持情况没有描述。好嘛,我自己总结一个嘛。

概念介绍 window.speechSynthesis

window.speechSynthesis_是_HTML5_推出的_Web API。在支持该API的浏览器环境中执行。它允许网页开发者通过JavaScript代码来访问和控制浏览器的语音合成功能,即将文本转换为语音输出。该API是需要配合同时HTML5推出的_SpeechSynthesisUtterance_(语音合成对象)一期使用的。

window.speechSynthesis 和 SpeechSynthesisUtterance 对于浏览器的支持度

window.speechSynthesis

点击进入兼容资料来源

SpeechSynthesisUtterance

点击进入兼容资料来源

SpeechSynthesisUtterance 的属性和方法

属性

  • text:获取并设置要朗读的文本内容。

  • pitch:获取并设置话语的音调 (0-2) ,值越大音调越尖锐,越低则越低沉。

  • rate:获取并设置说话的速度 (0.1-10),值越大语速越快,越小语速越慢。

  • voice:获取并设置说话的声音。这通常是一个 SpeechSynthesisVoice 对象,表示可用的语音选项。

  • volume:获取并设置说话的音量 (0-1),值越大音量越大。

  • lang:获取并设置话语的语言。这会影响语音合成的发音和语言习惯。(这个取决于浏览器的支持度)

    1. en-US:美国英语

    2. zh-CN:简体中文(中国大陆)

    3. zh-TW:繁体中文(台湾)

    4. fr-FR:法国法语

    5. de-DE:德国德语

    6. es-ES:西班牙西班牙语

    7. ja-JP:日本日语

方法

onboundary:当播放至一个词或句子结尾时触发的事件处理函数。

onend:语音播放结束时触发的事件处理函数。

onerror:语音播放错误时触发的事件处理函数。

onmark:当语音播放至 mark 标记时触发的事件处理函数(如果文本中包含了 mark 标签)。

onpause:暂停语音播放时触发的事件处理函数。

onresume:恢复语音播放时触发的事件处理函数。

onstart:开始语音播放时触发的事件处理函数。

window.speechSynthesis 的属性和方法

方法

speak(utterance):将指定的 SpeechSynthesisUtterance 对象添加到语音合成队列中,并开始播放(如果队列为空)。

cancel():取消当前正在播放的语音或队列中的所有语音。

pause():暂停当前正在播放的语音。

resume():恢复之前暂停的语音播放。

属性

voices:一个 SpeechSynthesisVoice 对象的数组,表示浏览器支持的语音。你可以查询这个数组来选择最适合你需求的语音。

onvoiceschanged:当支持的语音列表发生变化时触发的事件处理器。

pending:一个布尔值,表示是否有语音正在等待播放。

speaking:一个布尔值,表示当前是否有语音正在播放。

paused:一个布尔值,表示语音播放是否已暂停。

使用当前api需要注意的是

  1. 建议使用之前先判断当前浏览器是否支持该web api
 1const isBrowserSupport = 'speechSynthesis' in window;
  1. 该API在刷新页面之后,语音播放并不会停止。所以需要在页面页面被卸载或者刷新的时候,手动清理和暂停相关状态和内容
 1window.addEventListener('beforeunload', () => {
 2        
 3       window.speechSynthesis?.cancel();
 4    });
 5
  1. lang 属性没有自动翻译功能。如果你的内容是中文,但是设置了“en-US”(美国英语)。他就只能_用美国人说英语的口音给你把中文读出来_。如果需要根据lang来把内容自定义输出该语言,则需要先找第第三方插件把这文字翻译成改语言,然后再使用当前api去播放。 注意哦。要播放哪个国家的语言一定要尽量把lang设置为哪种类型。否则有概率出现无法读出的情况。 比如文本内容是日文,但是播放语言设置为 zh-CN。就会什么声音都播放不出来。

  2. window.speechSynthesis 是唯一的。这意味着,如果在播报途中多次请求。是_不会出现语音重叠的情况。但是,多次的触发会等上一段语音结束后排队播放。_

让我来给个demo代码片段

 1const demoVideo = () => {
 2  
 3  const createUtterance = () => {
 4    
 5    const utterance = new SpeechSynthesisUtterance();
 6    
 7    utterance.text = "今天星期六!明天也不用上班!";
 8    utterance.lang = "zh-CN";
 9    utterance.rate = 1;
10    utterance.pitch = 1;
11    utterance.volume = 1;
12    utterance.onend = () => {
13      console.log("语音已经阅读完毕");
14    };
15    utterance.onboundary = () => {
16      console.log("当前句子、词已经朗读完毕");
17    };
18    utterance.onerror = () => {
19      console.log("播报错误");
20    };
21    utterance.onmark = () => {
22      console.log("检测到mark标签");
23    };
24    utterance.onpause = () => {
25      console.log("语音被暂停了");
26    };
27    utterance.onresume = () => {
28      console.log("语音重新播放了");
29    };
30    utterance.onstart = () => {
31      console.log("开始播放语音");
32    };
33    return utterance;
34  };
35
36
37 window.speechSynthesis.speak(createUtterance());
38}
39
40demoVideo();

要测试效果的话,直接打开控制台,直接放在控制台跑一下就行。

个人笔记记录 2021 ~ 2025