기본 콘텐츠로 건너뛰기

python log - opencv

opencv 를 프로젝트 때문에 사용

opencv 자체는
apt-get install python-opencv
만 하면 되니 간편

OS X에선
brew tap homebrew/science
brew install opencv
로 설치하고 심볼릭 링크를 꼭 만들어줘야함.
cd /Library/Python/2.7/site-packages 후
ln -s /usr/local/Cellar/opencv/2.4.12/lib/python2.7/site-packages/cv.py cv.py
ln -s /usr/local/Cellar/opencv/2.4.12/lib/python2.7/site-packages/cv2.so cv2.so

내 경우는 이렇게 opencv 버전에 따라 2.4.12 대신 다른 걸 사용할 수 있다.

libdc1394 error: Failed to initialize libdc1394

이런 오류가 발생할 수 있는데
http://stackoverflow.com/questions/12689304/ctypes-error-libdc1394-error-failed-to-initialize-libdc1394

여기 내용을 보고
sudo ln /dev/null /dev/raw1394

1394 관련 내용 추가

sudo apt-get install python-pip

로 pip 도 설치. orangepi 기준으론 시간이 좀 걸림 ( https://www.raspberrypi.org/documentation/linux/software/python.md ) 참조.

http://www.slideshare.net/arload/flask-restful-api
Stack을 줄이기 위해 사용해야하는 기존 엔진을 직접 flask로 웹서버화 할까도 생각 중


ImportError: No module named stasm 오류 난다.
Pystasm도 설치

pip install PyStasm

설치 중 오류난다.

src/stasm.h:33:30: fatal error: opencv2/opencv.hpp: No such file or directory

슬슬 괴롭다.
얘는 뭐 자료도 없고 stasm 뭐니. 
http://www.milbo.users.sonic.net/stasm/ 에서 tar.gz을 받고

https://github.com/alyssaq/stasm_build 따라서 빌드했더니

➜  stasm4.1.0  ./build/stasm_util -s -f data ../test_img/JH0516.jpg
뭐 이런건 잘 나옴.
...
499 671
474 681
446 685
418 682
394 674
x,y만 좌륵 나오고 친절하게 점까지 찍어준다


sklearn 추가.
sudo apt-get install python-sklearn  

OSX)
brew install scipy



pip install scikit-learn
답답해서 egg 파일 추가 PyStasm-0.3.0-py2.7-linux-x86_64.egg 를 다운받아 easy_install PyStasm-0.3.0-py2.7-linux-x86_64.egg 로 설치

ImportError: libopencv_core.so.3.0: cannot open shared object file: No such file or directory

이번엔 호환이 안된다.
sudo ldconfig -v | grep opencv_core


libopencv_core.so.2.4 -> libopencv_core.so.2.4.8

현재 버전이 3.0 이 아니다.
cmake 부터 받고

opencv 3.0 도 받자.

cmake 하고
make
sudo make install
sudo ldconfig
까지
OS X에선 실패했다.

근데 이번엔 numpy 쪽 오류
정확하게 이 증상.
답변자 말대로 하면 안되고
sudo apt-get remove python-joblib
sudo apt-get remove python-sklearn
설치 후 
pip install -U scikit-learn
하니 된다.

거의 다 되었다 싶은데 이젠
AttributeError: 'module' object has no attribute 'CV_LOAD_IMAGE_COLOR'

이 오류가;;
보니까 소스를 고쳐야겠다.

    targetImage = cv2.imread(fileName, cv2.CV_LOAD_IMAGE_COLOR)

이 부분을 이렇게
    targetImage = cv2.imread(fileName, cv2.IMREAD_COLOR)

고치니 일단 작동은 한다.
솔직히 속도는 한심하다.

댓글

이 블로그의 인기 게시물

cURL로 cookie를 다루는 법

http://stackoverflow.com/questions/22252226/passport-local-strategy-and-curl 레거시 소스를 보다보면 인증 관련해서 cookie를 사용하는 경우가 있는데 가령 REST 서버인 경우 curl -H "Content-Type: application/json" -X POST -d '{"email": "aaa@bbb.com", "pw": "cccc"}' "http://localhost/login" 이렇게 로그인이 성공이 했더라도 curl -H "Content-Type: application/json" -X GET -d '' "http://localhost/accounts/" 이런 식으로 했을 때 쿠키를 사용한다면 당연히 인증 오류가 날 것이다. curl의 --cookie-jar 와 --cookie 옵션을 사용해서 cookie를 저장하고 꺼내쓰자. 각각 옵션 뒤엔 저장하고 꺼내쓸 파일이름을 임의로 지정하면 된다. 위의 과정을 다시 수정해서 적용하면 curl -H --cookie-jar jarfile "Content-Type: application/json" -X POST -d '{"email": "aaa@bbb.com", "pw": "cccc"}' "http://localhost/login" curl -H --cookie jarfile "Content-Type: application/json" -X GET -d '' "http://localhost/accounts/" 이렇게 사용하면 ...

MQTT 접속해제 - LWT(Last will and testament)

통신에서 중요하지만 구현이 까다로운 문제로 "상대방이 예상치 못한 상황으로 인하여 접속이 끊어졌을때"의 처리가 있다. 이것이 까다로운 이유는 상대방이 의도적으로 접속을 종료한 경우는 접속 종료 직전에 자신의 종료 여부를 알리고 나갈 수 있지만 프로그램 오류/네트웍 연결 강제 종료와 같은 의도치 않은 상황에선 자신의 종료를 알릴 수 있는 방법 자체가 없기 때문이다. 그래서 전통적 방식으로는 자신의 생존 여부를 계속 ping을 통해 서버가 물어보고 timeout 시간안에 pong이 안올 경우 서버에서 접속 종료를 인식하는 번거로운 방식을 취하는데 MQTT의 경우 subscribe 시점에서 자신이 접속 종료가 되었을 때 특정 topic으로 지정한 메시지를 보내도록 미리 설정할 수 있다. 이를 LWT(Last will and testament) 라고 한다. 선언을 먼저하고 브로커가 처리하게 하는 방식인 것이다. Last Will And Testament 라는 말 자체도 흥미롭다. 법률용어인데  http://www.investopedia.com/terms/l/last-will-and-testament.asp 대략 내가 죽으면 뒷산 xx평은 작은 아들에게 물려주고 어쩌고 하는 상속 문서 같은 내용이다. 즉, 내가 죽었을(연결이 끊어졌을) 때에 변호사(MQTT Broker - ex. mosquitto/mosca/rabbitMQ등)로 하여금 나의 유언(메시지)를 상속자(해당 토픽에 가입한 subscriber)에게 전달한다라는 의미가 된다. MQTT Client 가 있다면 한번 실습해보자. 여러가지가 있겠지만 다른 글에서처럼  https://www.npmjs.com/package/mqtt  을 사용하도록 한다. npm install mqtt --save 로 설치해도 되고 내 경우는 자주 사용하는 편이어서 npm install -g mqtt 로 전역설치를 했다. 호스트는 무료 제공하고 있는 test.mosquitto.o...

느려터진 안드로이드 에뮬은 버리고 VM을 쓰자.

iOS개발 환경이 안드로이드보다 우월점은 여러가지가 있겠지만 개인적으로 가장 큰부분이라고 생각하는 점이 iOS Simulator 의 넘사벽 속도다. 사실 iOS 의 경우 Emulator 가 아니라 Simulator 라는 훼이크를 써서 그런건데. 하드웨어+소프트웨어를 같이 하는 회사만이 쓸 수 있는 필살기라 볼 수 있다. 반면 안드로이드의 경우 ARM 에뮬레이터를 사용하는데 이게 참 못만들었다. 플스에뮬이나 GBA에뮬 반정도만 만들어도 써줄텐데 아직 갈길이 멀다. 그래서 구시렁 거리면서 하드웨어를 연결해서 테스트를 하고 있는데 역시 USB연결하는 건 불편하고 apk 를 전송하는 과정도 그다지 빠르지 않아서 개발 생산성이 월등히 나아지지는 않는다. 루팅을 하면 wifi 를 통해 apk 를 인스톨 할 수 있다고 해서 몇 가지를 해보았으나 잘 모르겠지만 인스톨까진 잘 되었는데 디버깅 모드로 실행이 되지 않아 그만두었다. 게다가 전송속도도 USB보다 wifi가 느리고 맘에 들지 않더라. 그러던중 stackoverflow.com(늘 신세지고 있습니다) 에서 "VM으로 안드로이드를 띄워서 adb connect 하면 좋아!" 라는 글에 눈이 번쩍. 시행착오를 몇번 했지만 의외로 간단하더라. 1. VMWare건 VirtualBox건 상관없다. VM호스트를 준비하자. 2. http://www.android-x86.org/download 로 가서  Deprecated x86 2.2 generic  을 받자. Q) 왜 Deprecated 인 2.2 generic 을 받나요. Deprecated는 쓰면 안되는 거 아님? A) http://mariuz.android-dev.ro/vm.iso.7z 도 있다고 한다. http://www.android-x86.org/download 에 있는 요즘 것들은 죄다 안된다. 3. 죄다 일단 Default 설정에 yes yes 하고 설치한다. 한글 문서가 필요한 분은 ...