image.png

안녕하십니까. 저희는 5조, ‘삽질하자’ 팀입니다.

프로젝트 제목은 "Study With Us"로, 비대면 시대에 함께 공부할 수 있는 AI 기반 스터디 플랫폼입니다.

저는 발표를 맡은 이태빈이고, 함께 프로젝트를 진행한 팀원은 서효석, 유창석입니다.

image.png

본 발표는 총 6가지 파트로 구성되어 있습니다.

먼저 각 팀원의 역할을 간단히 설명드리고,

프로젝트의 주제와 목적,

그리고 사용한 언어와 기술 스택에 대해 소개드릴 예정입니다.

이후엔 저희가 어떻게 분석하고 설계했는지,

팀 간 협업 과정을 설명드리고

마지막으로 시연으로 준비 하였습니다

image.png

먼저 서효석 팀원은 프로젝트 매니저이자 풀스택 개발자로,

전체 개발 흐름을 총괄하고 백엔드와 프론트엔드를 아우르는 개발을 맡았습니다.

저는 AI 파트를 맡아,

학습 추천 시스템과 감정 피드백 기능 구현을 담당하였습니다.

유창석 팀원프론트엔드 개발자로서,

사용자 인터페이스 구성과 반응형 웹 구현을 담당하였습니다

image.png

저희 프로젝트는

비대면 학습 환경에서의 고립감과 집중력 저하 문제를 해결하기 위한

AI 기반 실시간 화상 스터디 플랫폼입니다.

자기주도 학습은 확산되고 있지만,

여전히 지속적인 피드백, 동기부여, 학습 지원 시스템은 부족한 현실입니다.

저희는 이를 보완하기 위해

AI와 실시간 화상 기능을 결합한 플랫폼을 개발하게 되었습니다.

image.png

프로젝트는 ‘Study With Us’ 서비스 기획에서 시작해,

요구사항 정리 → ERD 설계 → WBS 및 화면 설계 순으로 구조를 잡았습니다.

이후 개발환경을 구축하고 GitHub 연동을 통해 협업 기반을 마련했고,

핵심 기능과 일반 기능을 구현한 뒤,

보안 및 테스트를 거쳐

AWS에 최종 배포를 완료하였습니다

image.png

저희 팀의 핵심 기능은

일기 기반 AI 피드백OpenCV를 활용한 집중 감지 시스템입니다.

실시간 영상 인식을 통해 집중 여부도 감지합니다.

사용자가 일기를 작성하면 LLM이 피드백을 제공하고,

이를 통해 학습 지속성 향상, 집중력 유지,

정서적 안정, 그리고 비대면 고립감 해소 효과를 기대할 수 있습니다.

image.png

저희는 React, Spring Boot, Llama 모델을 중심으로

안정적이고 확장 가능한 플랫폼을 구축하였니다.

WebRTC와 OpenCV를 통해 실시간 화상 및 집중 감지 기능을 구현했고,

백엔드는 Java와 Python을 병행하여 AI 처리와 실시간 통신을 담당하였습니다.

MySQL, Redis, AWS, Docker 등도 활용해

인프라부터 배포까지 전체를 통합적으로 구성하였습니다.

image.png

본격적인 개발에 앞서,

회원가입부터 AI 피드백, 집중 감지기능까지

사용자 기능을 항목별로 정리하고 분석하였습니다.

이를 통해 기획과 개발의 간극을 줄이고,

WBS, ERD, 프로토타입 설계의 기반을 마련할 수 있었습니다.

영어 단어 외우기가 너무 힘들다… 하루 종일 해도 기억이 잘 안 나. 어떻게 하면 더 잘 외울 수 있을까? 나한테 맞는 공부 방법을 알려줘.


랜딩페이지

  1. 저희 사이트는 로그인 또는 소셜로그인을 통해 입장 가능합니다.