딥러닝의 눈부신 발전에 힘입어 다양한 분야에서 딥러닝을 비즈니스에 적용하려고 한다. 이는 주어진 실행환경 내에서 가장 최고의 성능을 가지는 딥러닝 알고리즘을 찾는 것에서 시작한다. 하지만 딥러닝 분야의 발전속도가 빨라 최신 CNN을 이용한 성능평가에 대한 연구가 필요하다. 본 연구에서는 실행 가능한 최신 CNN 알고리즘을 가상환경으로 다양한 수준의 HW 환경에서 동작시켜, Inference time, 자원사용량 등을 측정하였다. Inference Time은 CPU 사양이 좋아질수록 짧아지는 결과를 보였고, Memory 사용량은 Parameter 사이즈와 inference에 필요한 tensor 사이즈에 따라 다른 값을 보였다. 실험 결과를 이용하여 CNN을 사용자 환경에 적용할 때 개발하고자 하는 서비스의 수준에 맞는 HW 사양을 선택하는데 필요한 가이드라인을 제안한다.