사용 장비 및 환경Jetson Nano 보드RPLidar A1ubuntu 18.04Astra Pro Plus Depth Camera 1) 젯슨 나노에 os를 설치이 내용은 검색하면 나오니 적진 않겠다.참고한 사이트는https://blog.naver.com/najinaji-/223487912837 젯슨 나노 OS설치백엔드 서버 열기 위해 Jetson Nano 를 이용해 os설치를 해 보았다. 1. 우선 nvidia 에서 우분투 이미지...blog.naver.com 2) 젯슨 나노와 라이다 센서를 연결지금 문제가 되는 부분은 여기다.라이다 센서를 연결하면 라이다가 빙글빙글 돌아가긴 한다. 분명히 연결은 된 게 확실하다.그런데 문제는 우분투 터미널에서 이녀석이 연결됐는지를 여러 커맨드로 확인해보면 연결되지 ..
https://github.com/estods3/JetTank/blob/master/src/jettank/src/nodes/vision/jt_vision_node.py#!/usr/bin/python2from __future__ import print_functionimport sysimport cv2import timeimport rospyimport numpy as npfrom std_msgs.msg import Int32from std_msgs.msg import Int16MultiArray# 이미지 전송을 위한 모듈들from std_msgs.msg import Stringfrom sensor_msgs.msg import Imagefrom sensor_msgs.msg import CompressedI..
1. 현재까지 완료된 작업 프로젝트 준비를 위한 문서 작업 및 자료 찾기는 전부 완료되었다. 이외에도 오픈 소스를 분석하는 등의 시간을 가졌다.Jetson Nano 보드를 사용하므로 다른 팀원이 젯슨 나노 보드에 리눅스 os를 올리는 작업까지는 끝마쳤다. 간단한 GPIO 테스트를 수행하는 단계까지는 끝났다. 2. 이후 해야하는 일 1) 오픈 소스 분석 및 센서 제어기자재가 아직 도착하지 않아 기자재를 직접적으로 사용함으로써 작동은 해보지 못했다. 그러나 깃허브에 있는 여러 오픈 소스들을 활용해 어떤 식으로 코드를 짜야하고 어떤 방법으로 센서 제어 방법에 접근했는지에 대해 학습하는 중이다. 2) AI 구현거기에 더하여 AI 구현을 위한 알고리즘으로는 YOLO 알고리즘을 선택했고 V5 모델을 ..
1. LiDAR 센서 무슨 센서를 사용하여 거리를 측정할 것인지에 대한 고민이 많았다. 나는 라이다 센서, 레이다 센서, 초음파 센서, 레이저 포인터 등의 다양한 것들을 생각하고 팀원들과 토의해보았으나 답이 나오지 않았다. 그리하여 여러 센서 제조 업체들에 문의를 넣게 되었고 다양한 업체에서 답을 주었다. 라이다 센서를 사용하는 것은 비전공자로 이제 겨우 몇 개월 공부한 우리 수준에서는 사실 두려운 일이다. 실제로 업체 관계자분들은 우리 팀 프로젝트 내용을 듣고는 많은 우려를 표하셨다. 그러나 여러 센서들에 대한 정보값들을 조합해본 결과 라이다 센서를 조정해보는 일은 매우 가치있는 일이라고 생각했으며 다양한 가격적인 측면, 기술적인 측면에 따라 (+ 팀원들과의 협의를 통해) A1 Lidar 센서를 사..
1. 개발 배경 이 프로젝트는 시각장애인들의 안전한 보행을 위해 시작되었다. 시각장애인들이 겪는 많은 어려움 중 사회 참여에 가장 방해가 되는 요인 중 하나는 보행 능력에 있을 것이다. 그러나 기존 제품들(ex.지팡이)들은 여러 한계점을 가지고 있었고, 이러한 한계를 보완할 수 있는 기술을 개발해보고자 이 프로젝트가 시작되었다. 2. 사용하는 기술 LiDAR 센서, Depth 카메라에 대한 이해를 요구한다. 센서로 수집한 데이터의 더미 데이터 등을 처리하고 원하는 정보값만을 거르는 작업을 할 수 있는 이해도를 필요로 한다. 그리고 이를 AI가 분석하게 한 다음 장애물이 인지되면 장애물에 대한 정보 음성 및 진동과 같은 인터페이스를 통해 제공한다. 그리하면 착용자는 지팡이나 여타 다른 장비 없이도 양..