프로젝트 배경
프로젝트 목표
본 프로젝트는 위와 같은 문제를 해결하기 위해 다음과 같은 목표를 설정하였습니다.
- GNSS 센서를 통해 작업자의 위치를 실시간으로 추적
- IMU 센서를 통해 사용자의 자세 상태를 판단하고, 이상 행동을 감지
- 카메라를 통해 현장 상황을 실시간으로 영상 확보
- 진동 모터를 통해 위험 경고 신호를 직접 사용자에게 전달
- 서버 및 웹 시스템을 통해 관리자에게 위치, 자세, 영상 정보를 통합 제공
주안점
- 하드웨어 통합 설계: 다양한 센서와 액추에이터를 안전모 내부에 일체화하여 착용성을 해치지 않도록 설계
- 펌웨어 최적화: 센서 데이터를 효율적으로 수집·전송하기 위한 경량화된 펌웨어 개발
- IoT 기반 실시간 통신: REST API 및 BLE 기반 통신으로 실시간 데이터 송수신 구현
- 웹 기반 시각화: 위치, 자세, 영상 정보를 관리자가 한눈에 파악할 수 있는 대시보드 형태로 구성
- 실용성과 확장성: 실제 산업현장에서 사용할 수 있는 견고성, 배터리 효율성, 사용 편의성 확보
본 프로젝트는 위와 같은 문제를 해결하기 위해 다음과 같은 목표를 설정하였습니다.
- GNSS 센서를 통해 작업자의 위치를 실시간으로 추적
- IMU 센서를 통해 사용자의 자세 상태를 판단하고, 이상 행동을 감지
- 카메라를 통해 현장 상황을 실시간으로 영상 확보
- 진동 모터를 통해 위험 경고 신호를 직접 사용자에게 전달
- 서버 및 웹 시스템을 통해 관리자에게 위치, 자세, 영상 정보를 통합 제공
주안점
- 하드웨어 통합 설계: 다양한 센서와 액추에이터를 안전모 내부에 일체화하여 착용성을 해치지 않도록 설계
- 펌웨어 최적화: 센서 데이터를 효율적으로 수집·전송하기 위한 경량화된 펌웨어 개발
- IoT 기반 실시간 통신: REST API 및 BLE 기반 통신으로 실시간 데이터 송수신 구현
- 웹 기반 시각화: 위치, 자세, 영상 정보를 관리자가 한눈에 파악할 수 있는 대시보드 형태로 구성
- 실용성과 확장성: 실제 산업현장에서 사용할 수 있는 견고성, 배터리 효율성, 사용 편의성 확보
프로젝트 성과
실사용 가능한 스마트 안전모 시제품 개발
GNSS, IMU, 카메라, 진동 모터 등 다양한 센서를 통합한 스마트 안전모 하드웨어와 3D 프린팅 케이스를 직접 설계 및 구현하여, 실제 산업 현장에서 착용 가능한 수준의 시제품을 제작함.
센서 통합 펌웨어 및 IoT 연동 구현
I2C, SPI, CSI 등 다양한 통신 방식으로 센서 데이터를 수집하고, 이를 실시간으로 전처리하여 REST API 방식으로 서버에 전송하는 펌웨어를 개발. 안정적인 데이터 흐름 확보에 성공함.
실시간 자세·위치 시각화 시스템 완성
웹 기반 관리 페이지에서 Google Maps API를 활용해 사용자의 위치를 실시간으로 지도에 표시하고, IMU 센서를 통해 사용자 자세를 분석·표시하는 시스템을 구현함.
영상 기반 원격 모니터링 기능 구현
카메라 모듈로 촬영한 현장 영상 데이터를 웹에서 실시간 확인할 수 있는 기능을 구현하여, 관리자 측의 원격 상황 판단이 가능하도록 함.
현장 대응 가능성 검증 및 확장 기반 확보
초기 필드 테스트를 통해 위치 정확도, 자세 감지 정확도, 통신 안정성을 검증하였으며, 향후 AI 분석·알림 기능·LTE 연동 등으로 확장 가능한 구조를 확보함.
핵심 기능
실시간 위치 추적 (GNSS 기반)
내장된 GNSS 모듈을 통해 사용자의 위치를 초 단위로 수집하며, 이를 웹 대시보드 상의 지도(Google Maps API)에 실시간으로 표시합니다. 위치 이탈 감지 등의 안전 관리에 활용됩니다.
자세 인식 및 이상행동 감지 (IMU 기반)
IMU 센서(가속도계 + 자이로스코프)를 통해 작업자의 머리 움직임을 분석하여 고개 숙임, 낙상, 장시간 정지 상태 등을 감지합니다. 이상 행동 발생 시 경고 트리거로 활용할 수 있습니다.
카메라 영상 스트리밍
사용자의 전방 시야를 카메라로 실시간 촬영하고, 이를 웹 페이지를 통해 관리자에게 스트리밍 형태로 제공합니다. 작업자의 상황을 원격에서 파악하고 대응할 수 있도록 합니다.
IoT 기반 서버 연동
펌웨어에서 수집한 센서 데이터는 전처리 후 REST API를 통해 서버에 전송되며, 실시간성과 안정성을 모두 확보하였습니다. 향후 클라우드 연동, AI 분석 확장도 고려된 구조입니다.
진행 단계
기획
2020.11.
산업현장의 안전 이슈와 기존 보호구의 한계를 분석하고, 위치 추적, 자세 인식, 실시간 영상 전송이 가능한 스마트 보호 장비의 필요성을 정의함.
디자인
2020.11.
GNSS, IMU, 카메라, 진동 모터 등의 센서를 안전모에 통합할 수 있도록 회로 및 배치 설계를 진행함.
Fusion360을 활용하여 안전모 외형을 3D 모델링하고, 3D 프린팅을 통해 시제품 외장을 제작함.
Fusion360을 활용하여 안전모 외형을 3D 모델링하고, 3D 프린팅을 통해 시제품 외장을 제작함.
개발
2020.11.
I2C, SPI, CSI 인터페이스를 통해 데이터를 수집하고, 전처리 후 REST API 방식으로 서버 전송을 구현함.
BLE 및 와이파이 기반 통신도 병행 테스트함.
BLE 및 와이파이 기반 통신도 병행 테스트함.
테스트
2020.11.
실내외에서 GNSS 수신 정확도, 자세 인식 반응성, 영상 송출 지연 시간 등 주요 항목에 대한 기능 테스트 수행
다양한 착용 환경에서 시스템 안정성과 착용감 검토, UI/UX 개선 사항 도출
다양한 착용 환경에서 시스템 안정성과 착용감 검토, UI/UX 개선 사항 도출
프로젝트 상세
스마트 안전모 시스템을 제작하였습니다.
해당 프로젝트의 구성은 아래와 같습니다.
1. 하드웨어
GNSS센서 / IMU 센서 / 진동 모터 / 카메라 를 제어하기 위한 회로를 구성하였습니다.
또한 Fusion360을 이용하여 케이스를 3D 모델링 하였으며, 이를 3D 프린터로 출력하였습니다.
2. 펌웨어
GNSS센서 / IMU 센서 / 카메라 로부터 데이터를 얻어 서버로 전송하는 펌웨어를 제작하였습니다.
I2C, SPI, CSI를 통해 각각의 센서로부터 데이터를 얻었으며, 해당 데이터들을 전처리하여 서버로 전송할 수 있도록 했습니다.
해당 데이터는 REST API 방식을 통해 서버로 데이터를 전송합니다.
3. 웹
웹페이지에서는 펌웨어로부터 얻은 GNSS 데이터를 통해 지도에 디바이스의 위치를 표시하였습니다. 지도는 Google map API를 사용하였으며, javascript를 통해 GNSS 데이터와 연동하였습니다.
IMU센서로부터 얻은 데이터는 알고리즘을 통해 사용자의 현재 자세를 추정한 뒤, 웹 페이지에 사용자의 자세를 보여줍니다.
카메라로부터 얻은 이미지 데이터를 통해 스마트 안전모를 쓴 사용자 근처의 상황을 볼 수 있도록 웹에 표시해줍니다.
해당 프로젝트의 구성은 아래와 같습니다.
1. 하드웨어
GNSS센서 / IMU 센서 / 진동 모터 / 카메라 를 제어하기 위한 회로를 구성하였습니다.
또한 Fusion360을 이용하여 케이스를 3D 모델링 하였으며, 이를 3D 프린터로 출력하였습니다.
2. 펌웨어
GNSS센서 / IMU 센서 / 카메라 로부터 데이터를 얻어 서버로 전송하는 펌웨어를 제작하였습니다.
I2C, SPI, CSI를 통해 각각의 센서로부터 데이터를 얻었으며, 해당 데이터들을 전처리하여 서버로 전송할 수 있도록 했습니다.
해당 데이터는 REST API 방식을 통해 서버로 데이터를 전송합니다.
3. 웹
웹페이지에서는 펌웨어로부터 얻은 GNSS 데이터를 통해 지도에 디바이스의 위치를 표시하였습니다. 지도는 Google map API를 사용하였으며, javascript를 통해 GNSS 데이터와 연동하였습니다.
IMU센서로부터 얻은 데이터는 알고리즘을 통해 사용자의 현재 자세를 추정한 뒤, 웹 페이지에 사용자의 자세를 보여줍니다.
카메라로부터 얻은 이미지 데이터를 통해 스마트 안전모를 쓴 사용자 근처의 상황을 볼 수 있도록 웹에 표시해줍니다.
