用Python建一个OCR服务器附2019最新python教程分享

用Python建一个OCR服务器(附2019最新python教程分享)

Why?

OCR(又叫光学字元识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库档案和bot病毒。一个OCR的小例子,如用OCR直接从截图中提取文字,省去了重新键入的麻烦。

开始的步骤

开始之前,我们需要开发一个后端服务层来表示OCR引擎的结果。这样你就可以用你喜欢的方式来向端使用者表示你的结果。本文之后将会详细介绍。除此之外,我们还需要新增一点后端程式码来生成HTML表格,以及一些使用这些API的前段程式码。这部分本文没有讲,但是你可以参阅源代码。

准备好开始吧!

首先,需要安装一些依赖项。这个过程也是非常有趣的。本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来建立相应的环境。

下载依赖项

我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。注意:可以用_run.sh这个shell指令码来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器部分。但是为了学习,如果你以前没有亲手构建过库档案的话,还是建议尝试一下。

发生了什么?

简单说,sudo apt-get update意思就是更新包列表。然后就能安装一些影象处理的包,如libtiff,libpng等等。除此之外,我们还需要安装Python 2.7,作为我们的程式语言,以及python-imaging库。

说起影象,在将程式里面编辑影象之前我们还需要ImageMagick包。

$ sudo apt-get install imagemagick# **构建Leptonica和Tesseract**

再说一遍,如果你用_run.sh指令码已经安装过,就可以直接跳到搭建Web服务器部分。

Leptonica

现在,开始安装Leptonica。

如果这是你第一次用tar的话,按照如下步骤操作:

1. 用wget下载Leptonica的二进位制档案

2. 解压

3. 用cd进入解压后的资料夹

4. 执行autobuild和configure指令码安装

5. 执行make命令build

6. Build后安装

7. 执行ldconfig建立相关的连结

OK,Leptonica建立好了,接下来就是Tesseract了。

Tesseract

现在下载并安装Tesseract吧。

此处构建了一个Leptonica的映像,这部分的详细资讯参考Leptonica的解释。

环境变数

我们需要设定一个环境变数来访问Tesseract资料:

$ export TESSDATA_PREFIX=/usr/local/share/

Tesseract包

最后安装一下Tesseract相关的语言包:

OK,Tesseract也安装好了,可以CLI来测试一下。更多的资讯可以参考docs。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:

1. 接受影象URL

2. 能够对影象进行字元识别

搭建Web服务器

最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract互动的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract。想要快点的话,就执行_app.sh指令码,否则,就得获取程式码/结构的模板,然后执行一下命令:

注意:Flask模板是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程式。

安装OCR引擎

现在,我们需要用pytesseract来建立一个类来读取图片。在flask_server目录下建立一个新的档案ocr.py,写入如下程式码:

非常好!主方法process_image的功能是锐化影象文字。现在,这个模组已经可以用了。

可选项:为你的OCR引擎建立一个CLI工具

做了这么多繁琐配置工作,让我们来建立一个CLI工具来调节一下心情吧。在flask_server目录下建立一个新的档案cli.py,写入如下程式码:

非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文字了。执行python flask_server/cli.py来试一下吧。

回到服务器

既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的程式码加入到app.py档案:

确保引入的下列包是最新的:

最后,新增一行API版本号:

_VERSION = 1 # API version

从程式码中可以看到,我们以PIL中Image档案物件的方式把JSON的响应传入引擎的process_image方法中。并且,就目前而言,它只支援.jpg图片。

注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社群对它的看法也不统一,详细情况可以自行Google。

测试

执行你的程式:

然后,在另外一个终端执行:

$ curl -X POST http://localhost:5000/v1/ocr -d \{image_url: some_url}\ -H Content-Type: application/json

例子

前端

现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery新增到DOM中。这部分内容本文就不讲了。

用下面的样本来测试一下:

小编为大家准备了一些python的学习教程分享,希望可以帮助到大家。

获取方式:请大家新增wx:qiqilaije 备注5

获取python自学教程一套。