捧读的 iOS 和 Android 版本均已推送此更新
最近需要阅读很多日语资料,比如新闻,传单,书,漫画等等,复杂的场景也必然导致我对 OCR 有了一系列的痛点,因此对捧读的 OCR 功能也有了一些新的思考
成果如下,欢迎观看,点赞,转发给好朋友!
读书,反复拍照
最近去图书馆借了一些日文书,阅读的时候堪比文盲,真是得一页一页的用捧读扫描,然后看看汉字的发音都是什么,再查查一些自己不认识的字。

常用的一个流程就是
- 对着书的一页拍照
- 希望选择一个区域进行分析
- 加生词本
- 看完了拍下一页
因此针对这个流程做了一些列的调整,同时左上角也加入了一个快捷选择新图片的入口,用户无需离开这个页面即可继续操作其他图片,这也使得 OCR 工作台 实至名归。

漫画、报纸,区域框选
看漫画报纸的时候,由于内容比较分散,文本的通常关联性比较低,就需要比较精确的选取某一个区域的内容

而针对漫画这种场景,设置中也增加了一个漫画模式,可以将框选的文本进行合并,避免「出其不意」的分段问题。

精读,逐行校对
一些比较严谨的资料,也需要能够进行逐行校对,捧读在这个环节实现了一个自动定位的功能,即编辑文本框的时候,图片会自动定位到文本框所对应的位置,并用黄色高亮起来。
不过这个环节在辨识度方面还有持续优化的空间。

OCR 历史记录
与上面这些功能相对应的,历史记录也进行了一次大升级,所有分析过的内容均可随时翻出来再次分析,并且会完美记录上次编辑的状态。

结语
以上就是本次 OCR 工作台更新的主要功能啦,如果你有使用场景希望我针对性的优化,欢迎通过 App 内的意见反馈与我联系
![]() | Oyomi - Japanese Reader View★★★★★ |