Archive for the ‘Programming’ Category

python-logo-master-v3-TM

画像に対してAIを使って何が映っているのかを判断させる。
SSD KERASというオープンソースのソフトウェアを使う。

VirtualBoxを使ってUbuntu16.04LTSをインストール。
まっさらな環境から主に下記URLの通りの手順を踏んでインストール。

pip3のインストール & アップグレード

$ sudo apt-get install python3-pip python3-dev
$ pip3 install --upgrade pip

TensorFlowのインストール

$ pip3 install tensorflow==1.1.0

KERASのインストール

$ sudo pip3 install keras==1.2.2

opencvのインストールに必要なパッケージを取得

$ sudo apt-get install --assume-yes build-essential cmake git
$ sudo apt-get install --assume-yes build-essential pkg-config unzip ffmpeg qtbase5-dev python-dev python3-dev python-numpy python3-numpy
$ sudo apt-get install --assume-yes libopencv-dev libgtk-3-dev libdc1394-22 libdc1394-22-dev libjpeg-dev libpng12-dev libtiff5-dev libjasper-dev
$ sudo apt-get install --assume-yes libavcodec-dev libavformat-dev libswscale-dev libxine2-dev libgstreamer0.10-dev libgstreamer-plugins-base0.10-dev
$ sudo apt-get install --assume-yes libv4l-dev libtbb-dev libfaac-dev libmp3lame-dev libopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev
$ sudo apt-get install --assume-yes libvorbis-dev libxvidcore-dev v4l-utils

opencvのコードを取得

$ git clone https://github.com/opencv/opencv.git
$ cd opencv

opencvのビルド。この作業、私の環境では2時間くらいかかった。

$ mkdir build
$ cd build/
$ cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D WITH_TBB=ON -D WITH_V4L=ON -D WITH_QT=ON -D WITH_OPENGL=ON -D WITH_CUBLAS=ON -DCUDA_NVCC_FLAGS="-D_FORCE_INLINES" ..    
$ make -j $(($(nproc) + 1))

opencvのインストール

$ sudo make install
$ sudo /bin/bash -c 'echo "/usr/local/lib" > /etc/ld.so.conf.d/opencv.conf'
$ sudo ldconfig
$ sudo apt-get update

ssd_kerasのダウンロード

$ git clone https://github.com/rykov8/ssd_keras.git
$ cd ssd_keras

学習モデルのダウンロード
下記サイトより
rykov8/ssd_keras: Port of Single Shot MultiBox Detector to Keras

このhereから

スクリーンショット 2020-07-02 14.52.33

このファイルをダウンロードする。

スクリーンショット 2020-07-02 14.52.46

ダウンロードした学習モデルは、ssd_kerasのディレクトリの中に配置。
この時、ssd_kerasのディレクトリは下記の通りの構成になっている。

LICENSE
PASCAL_VOC
README.md
SSD.ipynb
SSD_training.ipynb
__pycache__
gt_pascal.pkl
main.py
pics
prior_boxes_ssd300.pkl
ssd.py
ssd_layers.py
ssd_training.py
ssd_utils.py
testing_utils
weights_SSD300.hdf5

ここからjupyter notebookをインストールすると参考のサイトには書いてあったが、自分の環境ではjupyterを使ったコードの実行はできなかった。
なので、jupyterに使われていたコードを編集して、一つのプログラムにして実行した。

その際使ったプログラムは下記のとおり

main.py

from keras.applications.imagenet_utils import preprocess_input
from keras.backend.tensorflow_backend import set_session
from keras.preprocessing import image
import matplotlib.pyplot as plt
import numpy as np
from scipy.misc import imread
import tensorflow as tf

from ssd import SSD300
from ssd_utils import BBoxUtility

import glob

picture_dir = './pics'

def make_file_list()-> []:
    result = []
    files = glob.glob('{}/**'.format(picture_dir), recursive=True)
    for f in files:
        if f[-3:] == 'jpg':
            result.append(f)
    return result

def extract_file_name(path:str)-> str:
    idx = path.rfind('/')
    name = path[idx + 1:]
    idx = name.rfind('.')
    result = name[:idx]
    return result

def extract_file_path(path:str)-> str:
    result = path.split('/')[-2]
    # filename = path.split('/')[-1]
    # result = '{}/{}'.format(dir, filename)
    return result


#matplotlib inline
plt.rcParams['figure.figsize'] = (8, 8)
plt.rcParams['image.interpolation'] = 'nearest'

np.set_printoptions(suppress=True)

config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.45
set_session(tf.Session(config=config))

voc_classes = ['Aeroplane', 'Bicycle', 'Bird', 'Boat', 'Bottle',
               'Bus', 'Car', 'Cat', 'Chair', 'Cow', 'Diningtable',
               'Dog', 'Horse','Motorbike', 'Person', 'Pottedplant',
               'Sheep', 'Sofa', 'Train', 'Tvmonitor']

# voc_classes = ['Bird', 'Bus', 'Car', 'Cat','Cow', 'Dog', 'Motorbike', 'Person', 'Sheep']

NUM_CLASSES = len(voc_classes) + 1

input_shape=(300, 300, 3)
model = SSD300(input_shape, num_classes=NUM_CLASSES)
model.load_weights('weights_SSD300.hdf5', by_name=True)
bbox_util = BBoxUtility(NUM_CLASSES)


# files = glob.glob('./pics/dataset/**', recursive=True)
inputs = []
images = []
files = make_file_list()
for f in files:
    # filenames.append(extract_file_name(f))
    img_path = f
    img = image.load_img(img_path, target_size=(300, 300))
    img = image.img_to_array(img)
    images.append(imread(img_path))
    inputs.append(img.copy())


inputs = preprocess_input(np.array(inputs))
preds = model.predict(inputs, batch_size=1, verbose=1)

results = bbox_util.detection_out(preds)

#%%time
a = model.predict(inputs, batch_size=1)
b = bbox_util.detection_out(preds)

idx = 0
for i, img in enumerate(images):
    # Parse the outputs.
    det_label = results[i][:, 0]
    det_conf = results[i][:, 1]
    det_xmin = results[i][:, 2]
    det_ymin = results[i][:, 3]
    det_xmax = results[i][:, 4]
    det_ymax = results[i][:, 5]

    # Get detections with confidence higher than 0.6.
    top_indices = [i for i, conf in enumerate(det_conf) if conf >= 0.6]

    top_conf = det_conf[top_indices]
    top_label_indices = det_label[top_indices].tolist()
    top_xmin = det_xmin[top_indices]
    top_ymin = det_ymin[top_indices]
    top_xmax = det_xmax[top_indices]
    top_ymax = det_ymax[top_indices]

    colors = plt.cm.hsv(np.linspace(0, 1, 21)).tolist()

    plt.imshow(img / 255.)
    currentAxis = plt.gca()
    # f = open('{}/{}/labels.txt'.format(picture_dir, extract_file_path(files[idx])), mode='a')
    for i in range(top_conf.shape[0]):
        xmin = int(round(top_xmin[i] * img.shape[1]))
        ymin = int(round(top_ymin[i] * img.shape[0]))
        xmax = int(round(top_xmax[i] * img.shape[1]))
        ymax = int(round(top_ymax[i] * img.shape[0]))
        score = top_conf[i]
        label = int(top_label_indices[i])
        label_name = voc_classes[label - 1]
        display_txt = '{:0.2f}, {}'.format(score, label_name)
        coords = (xmin, ymin), xmax-xmin+1, ymax-ymin+1
        color = colors[label]
        currentAxis.add_patch(plt.Rectangle(*coords, fill=False, edgecolor=color, linewidth=2))
        currentAxis.text(xmin, ymin, display_txt, bbox={'facecolor':color, 'alpha':0.5})

        # f.write('{} -> {} : {:0.2f}\n'.format(extract_file_name(files[idx]), str(label_name), score))

    # f.close()
    plt.show()
    idx += 1

なお、このプログラムを実行すると、python3-tkが足りないと言われるのでこれをインストール

sudo apt install python3-tk

さらに、cannot import name 'imread'というエラー
これは、scipyのバージョンが違う場合に発生するらしい。
ついてはscipyのバージョンを指定してインストール

pip3 install scipy==1.1.0

これにて動作確認。

人間は結構取れる。
SnapCrab_No-0065

でもちょっと意地悪するとこんな感じ。

スクリーンショット 2020-07-02 15.00.25

上記の工程は主に下記のサイト様を参考にしてやらせていただきました。
本当に助かりました。感謝致します。

映像からの物体検出(SSD_Keras)に挑戦 for ubuntu | AI coordinator

python-logo-master-v3-TM

pipでもpip3でもparamikoが入らなかった

環境は以下の通り
Raspberry Pi Zero

cat /etc/debian_version
#9.8

Command “python setup.py egg_info” failed with error code 1 in ...

というようなエラーが出ていた。
調べてみるとsetuptoolsをアップグレードするというような記事が出てきた。

それらをやってもだめだったため、githubからparamikoのソースコードを探し出し、cloneの後に直接インストールを試みた。
pipを介さずインストールするのは依存関係が壊れる可能性があるので、もちろんバックアップは取ってからのこと。

すると、libffiというライブラリが不足していてインストールに失敗していることがわかった。

そこで

pip3 install libffi

でlibffiをインストールしたあと

pip3 install paramiko

で無事paramikoのインストールができた。

neovimを使っていて、:HealthCheckを実行時、python3はOKなのにpython2はエラーが出ていた。
python3とpython2、どちらもOKじゃないと問題がないかはわからなかったが、とりあえずエラーが出ている状態というのは気持ちがいいものではないので解決した

環境:
os:Linux Ubuntu18.04LTS
python2:2.7.16
python3:3.7.2

このサーバーではpythonのバージョン管理にpyenvを使っている。

記事執筆時に新しいバージョンだったpython2とpython3を導入している
それぞれ環境のところに書いてあるpythonをpyenvを使ってインストールをした。

その後、~/.config/nvim/init.vimに下記の記述を追加


let g:python_host_prog = expand('~/.pyenv/versions/2.7.16/bin/python2')
let g:python3_host_prog = expand('~/.pyenv/versions/3.7.2/bin/python3')

これで:CheckHealthをするとエラーは消えた

バージョンを直で書くのはよくないとかいう声も聞こえてきそうだけれど、とりあえずはこれでよし

(本当の問題は別のプラグインがまともに動いてくれていなくて、これがpython2がうまく動かないことに起因しているのかを確かめたかったのです)

下記記事を参考にさせていただきました。ありがとうございます。

init.nvim にpython のpath を指定してneovim の起動速度を早くする - Qiita