크레딧: Pexels의 ROMAN ODINTSOV
식사 사진을 찍으면 인공 지능이 칼로리 계산, 지방 함량 및 영양가를 즉시 알려주므로 더 이상 음식 일지나 추측할 필요가 없습니다.
이 미래 시나리오는 체중, 당뇨병 및 기타 다이어트 관련 건강 상태를 관리하고자 하는 수백만 명의 사람들을 위한 새로운 도구를 약속하는 NYU Tandon School of Engineering 연구원이 개발한 AI 시스템 덕분에 이제 현실에 훨씬 더 가까워졌습니다.
제6회 IEEE International Conference on Mobile Computing and Sustainable Informatics에서 발표된 논문에 자세히 나와 있는 이 기술은 고급 딥 러닝 알고리즘을 사용하여 이미지의 식품을 인식하고 칼로리, 단백질, 탄수화물 및 지방을 포함한 영양 함량을 계산합니다.
논문의 주 저자인 Prabodh Panindre와 공동 저자인 Sunil Kumar가 포함된 NYU의 Fire Research Group은 10년 넘게 중요한 소방관의 건강 및 운영 문제를 연구해 왔습니다. 여러 연구 조사에 따르면 경력의 73-88%와 자원 봉사 소방관의 76-87%가 과체중 또는 비만이며 운영 준비 태세를 위협하는 심혈관 및 기타 건강 위험이 증가하고 있습니다. 이러한 발견은 AI 기반 식품 추적 시스템 개발에 직접적인 동기를 부여했습니다.
"음식 섭취량을 추적하는 전통적인 방법은 자체 보고에 크게 의존하는데, 이는 신뢰할 수 없는 것으로 악명이 높습니다. 우리 시스템은 방정식에서 인적 오류를 제거합니다"라고 NYU Tandon School of Engineering의 기계 공학과 부교수인 Panindre는 말했습니다.
개념의 명백한 단순성에도 불구하고 신뢰할 수 있는 식품 인식 AI를 개발하는 것은 수년 동안 연구자들을 당황하게 했습니다. 이전의 시도는 NYU Tandon 팀이 극복한 것으로 보이는 세 가지 근본적인 문제로 어려움을 겪었습니다.
NYU 아부다비의 기계공학과 교수이자 NYU Tandon의 기계공학과 글로벌 네트워크 교수인 Kumar는 "음식의 순수한 시각적 다양성은 놀라울 정도입니다. 표준화된 외관을 가진 제조된 물건과 달리, 같은 요리라도 누가 준비하느냐에 따라 극적으로 다르게 보일 수 있습니다. 한 레스토랑의 햄버거는 다른 레스토랑의 햄버거와 거의 닮지 않았으며 홈메이드 버전은 또 다른 복잡성을 더합니다"라고 말했습니다.
초기의 시스템은 영양 계산에서 중요한 요소인 식사량의 양을 추정할 때도 흔들렸습니다. NYU 팀의 발전은 고급 이미지 처리를 사용하여 접시에서 각 음식이 차지하는 정확한 면적을 측정하는 체적 계산 기능입니다.
이 시스템은 각 식품이 차지하는 면적을 밀도 및 다량 영양소 데이터와 연관시켜 2D 이미지를 영양 평가로 변환합니다. 이러한 체적 계산과 AI 모델의 통합은 수동 입력 없이 정확한 분석을 가능하게 하여 자동화된 식단 추적의 오랜 과제를 해결합니다.
세 번째 주요 장애물은 컴퓨팅 효율성이었습니다. 이전 모델은 실시간 사용에 실용적이기에는 너무 많은 처리 능력이 필요했으며, 종종 클라우드 처리가 필요하여 지연과 개인 정보 보호 문제가 발생했습니다.
연구진은 ONNX 런타임(AI 프로그램이 보다 효율적으로 실행되도록 돕는 도구)과 함께 YOLOv8이라는 강력한 이미지 인식 기술을 사용하여 다운로드 가능한 앱 대신 웹사이트에서 실행되는 식품 식별 프로그램을 구축하여 사람들이 휴대폰의 웹 브라우저를 사용하여 식사를 분석하고 식단을 추적할 수 있도록 했습니다.
피자 한 조각에 대해 테스트한 결과, 이 시스템은 317칼로리, 단백질 10g, 탄수화물 40g, 지방 13g을 계산했는데, 이는 기준 기준과 거의 일치하는 영양 수치였습니다. 렌틸콩 스튜를 곁들인 찐 떡을 특징으로 하는 남부 인도 특산품인 idli sambhar와 같은 더 복잡한 요리를 분석할 때도 비슷한 성능을 보였는데, 221칼로리, 단백질 7g, 탄수화물 46g, 지방 1g을 계산했습니다.
"우리의 목표 중 하나는 시스템이 다양한 요리와 음식 프레젠테이션에서 작동하도록 하는 것이었습니다. 우리는 핫도그(우리 시스템에 따르면 280칼로리)가 310칼로리와 18g의 지방을 함유하고 있는 것으로 식별되는 중동 페이스트리인 바클라바처럼 정확하기를 원했습니다"라고 Panindre는 말했습니다.
연구원들은 유사한 식품 범주를 결합하고, 예시가 너무 적은 식품 유형을 제거하고, 훈련 중에 특정 식품을 더 강조하여 데이터 문제를 해결했습니다. 이러한 기술은 수많은 초기 이미지에서 214개 식품 범주에 걸쳐 95,000개의 인스턴스로 구성된 보다 균형 잡힌 세트로 교육 데이터 세트를 구체화하는 데 도움이 되었습니다.
기술적 성능 지표는 인상적입니다: 이 시스템은 IoU(Intersection over Union) 임계값 0.5에서 0.7941의 평균 평균 정밀도(mAP) 점수를 달성했습니다. 비전문가의 경우, 이는 AI가 식품이 겹치거나 부분적으로 가려져 있는 경우에도 약 80%의 시간 동안 정확하게 찾고 식별할 수 있음을 의미합니다.
이 시스템은 모바일 장치에서 작동하는 웹 애플리케이션으로 배포되어 스마트폰을 가진 모든 사람이 잠재적으로 액세스할 수 있습니다. 연구원들은 현재 시스템을 "개념 증명"으로 설명하며, 이는 곧 더 광범위한 의료 응용 분야를 위해 개선되고 확장될 수 있습니다.
이상의 기사는 2025년 3월 18일 TechXplore에 게재된 “AI food scanner turns phone photos into nutritional analysis”제목의 기사내용을 편집하여 작성하였습니다.
* 원문정보 출처 : AI food scanner turns phone photos into nutritional analysis
* 추가정보 출처 : Deep Learning Framework for Food Item Recognition and Nutrition Assessment | IEEE Conference Publication | IEEE Xplore