-
5주차(07.27~07.31)
이번주부터는 각 팀별로 페이즈 0을 기점으로 개발이 시작되었습니다. 개발을 시작하려고 보니 서비스 팀 내부에서도 3명이 각각 어떤 역할을 맡고 개발 할지에 대한 역할 분담이 명확히 정해지지 않아 초반에 많이 헤맸던것 같습니다.
그래도 node.js와 express를 설치하여 서버 개발환경 세팅을 진행하고 MySQL을 설치하여 서버를 DB와 연동하는 작업을 수행하다보니 뭔가 좀 한 것같다는 느낌이 들었습니다. 시작이 반이라고 이제 개발만 진행하면 될 것 같습니다. (각각의 버전 정보는 이노베이션 2020 하계 현장실습 서비스팀 github를 참조해주세요)
MVC 모델을 적용하기로 하였기에 모듈을 각각 모델에 적용하였습니다. ejs와 같은 앞단은 View에 적용을 하고 데이터를 접근하는 DAO는 Model에 적용하며 데이터를 Model에서 불러와 로직을 처리하는 부분은 Controller에 적용하여 구조를 나누었습니다.
그리고 디버깅을 쉽게 하기위해 라우팅을 굵직한 요구사항으로 나누고 그 Model과 Controller도 요구사항별 폴더를 나누었습니다. 이로인해, 해당 요구사항에서 에러가 발생하면 그 요구사항만 찾아가면 되기에 에러를 빨리 찾아낼 수 있었습니다. 이번 주차는 페이즈0에 해당하는 멘토 정보, 키워드 정보, 커리어 정보 등을 불러오는 작업과 수정할 수 있는 작업을 수행하였습니다.
이번 주차 역시 세미나를 진행하였습니다. 저번 시간까지 데이터 드리븐(그로스 해킹-데이터 마케팅-데이터 시각화)에 대해 다루었다면 이번 시간엔 그 데이터를 어떻게 수집할 것인지에 대한 내용이었습니다. 여기서 데이터를 로그라고 가정한다면 그 로그를 어떻게 수집할 것인지에 대한 질문에 머리속이 하얘졌습니다.(머리로 망치를 얻어 맞은 느낌?)
저번에 멘토님이 말씀해주신 것처럼 로그를 남기는 것은 서버가 중단되어도 원인을 찾아 다시 작동시켜야 하기에 무조건 남겨야 할 만큼 중요한 건 얼마 전에 알게 되었지만 막상 그것을 어떻게 남겨야 할지에 대한 것은 제대로 생각해본적이 없기 때문입니다. 계속해서 세미나는 ELK에 대해서 진행되었고 로그 저장소인 Elasticsearch와 로그 파싱과 같은 기능을 수행하며 전송하는 등 로그 적재기와 같은 역할을 수행하는 Logstash, 로그 분석 결과를 시각화 해주는 Kibana를 이용하여 로그를 분석할 수 도 있다는 것을 알게되었습니다.