9 to 9 하루 12시간 몰입해서 개발자로 거듭나세요. 위의 문구는 항해에서 홍보했던 문구이자 내가 부트캠프로 항해를 선택했던 이유였다. 하루 12시간씩 하면은 뭐가 되든 되겠다 생각이 들었고 항해를 선택했다. (하지만 12시간만 해서 과연 개발자가 될까 라는 생각이됐다.) 9 to 9 은 최소일뿐이다. 항해에 들어와서 처음으로 놀랬던 순간은 12시간이라는 문구가 최소라는 것을 알았던 순간이었다. 나는 다른 분들이 12시간씩 몰입하는 것이 어려울 것이라고 생각했다. 하루 이틀 정도야 가능하겠지만 이것을 약 4개월동안 유지한다는 것은 굉장히 어려운 일이기 때문이다. 난 꼭 성공할꺼야 라는 마음가짐으로 시작했는데 이건 기본 중의 기본이라는 사실을 알았을때 큰 충격을 받았다. 그리고 항해에 들어오기전에는 하..
좋은 팀원들과 좋은 프로젝트를 한 덕분에 이렇게 좋은 결과를 얻게 되었다. 이번 Spring 10기의 이상훈은 너무 좋은 순간들뿐이었다. 평행이론의 이상훈이 있다면 지금의 내가 가장 행복할 것이다. 너무 좋은 팀원들을 만났고 너무 좋은 프로젝트들을 했고 너무 좋은 것들을 배웠다. 그리고 모두들 너무 많은 노력을 했는데 그 노력에 걸맞는 결과물들을 다 얻었었고 실전프로젝트에서는 모두들 노력한 만큼 상을 받게되어서 이만큼 감격스러운 순간도 없었다. 실전프로젝트 팀 노션 주소 https://speckle-apple-b3b.notion.site/Pin-Table-d4c37b30fd804199b3392045c0080129 Pin-Table 🍽 A new tool for teams & individuals that..
실전프로젝트 12일차 1. Query Dsl Query Dsl을 어떻게 구현해야하나 고민을 많이 했던거 같다 일단 난 query에 자신이 없었고 그 query를 이용해 무언가를 구현해야한다는 것이 부담이었다. 많은 구글링을 통해서 패턴을 좀 보았고 그것이 눈에 익었을때 구현을 해봤는데 뭐 그렇게 어렵지 않게 되었다. 이것도 사실 하기가 어렵지 해보면 별거 아니라는 생각이 좀 든다 리펙토링하는데에서는 시간이 좀 오래 걸린거같다 아무래도 리펙토링도 리펙토링이지만 이 Query Dsl은 카테고리 검색 기능과 묶여서 있는 기능이다보니까 이것을 어떻게 프론트쪽에서 구현을 할까 어떻게하면 프론트엔드에서 처리하기가 쉬울까 라는 고민때문에 시간이 오래걸렸다 그래도 이런 생각을 함으로써 더 좋은 결과가 나오고 더 좋은 ..
실전프로젝트 9일차 1. 기획 수정 우리가 이제 1주일동안 프로젝트를 진행했는데 크롤링도 안정기에 접어들었지만 다들 서로 말은하지 않아도 의문점이 있었다. 우리의 스코프가 너무 작지않나? 어느 부분이 문제일까 라는 고민을 했는데 오늘 멘토님 피드백을 받으면서 이 부분을 제대로 지적받았다. 요약해보자면 첫번째 MVP 기능이 너무 적다 두번째 단순하게 검색성능 개선에만 초점을 맞췄다 세번째 챌린지팀의 목표를 잊지말자 상세한 내용은 따로 블로그를 적겠다. 기획 수정에 들어갔고 MVP 기능을 늘리고 동시성제어와 대용량 트래픽에 대해서도 집중하기로 했다 오늘 하루는 거의 회의하는데에만 시간을 쏟은거같다 하지만 이렇게 기획에 대해 피드백을 받고나니 마음이 편안해졌다 사실 피드백을 받기전까지 우리는 서로 챌린지팀에 ..
벌써 1주일 정도가 지났는데 크롤링때문에 스트레스를 많이 받아서 아무것도 한게 없다고 생각했는데 돌이켜보면 이것저것 규칙도 정하고 진행은 되고 있는 듯한 느낌이었다. 1. 크롤링 이제 크롤링에 대한 부분은 다들 어느정도 흐름을 잡았다고 생각한다. 1주일동안 많은 시행착오를 겪었는데 정말 이런 시행착오들을 겪으면서 우리가 잘못하는것이 아닐까 라는 생각도 들곤 했는데 여기저기 질문을 해보고 받았던 답변들을 우리가 종합해보자면 크롤링 자체가 원래 이런것이라는 결론을 내렸다 우리가 질문을 많이해보면서 우리가 했던 방식자체는 틀리지않았다는 것을 알았고 그러면 왜 이렇게 많은 오류와 시행착오를 겪어야하는가에 대해서는 우리가 크롤링 하는 대상이 네이버였는데 네이버에서 어느정도의 제한을 걸어놨는지 알아내기란 어렵고 그..
1. 크롤링 크롤링 크롤링.. 다른 팀원분께서 크롤링 코드를 완성하셨다. 하지만 혼자서 모두 크롤링해오기에는 데이터양이 너무 많았기 때문에 팀원들끼리 서로 분량을 나눠서 크롤링해오기로 했다 각자 15만건의 데이터를 가지고 오기로 약속하고 분량을 나눠가졌는데 jupyter notebook을 사용해 크롤링을 해왔으나 많은 어려움들이 있었다. 첫번째 데이터 양이 커도 너무 크다 쉬울거라 생각은 안했지만 이렇게 어려울지 몰랐다. 아무리 자동으로 크롤링해온다하더라도 15만건의 데이터는 정말 아득히 큰 숫자구나 라는것을 느꼈다. 이 15만건의 데이터를 모두 크롤링 해오려면 밤낮없이 일주일? 2주일? 내내 돌려야할정도로 양이 굉장히 많았다. 두번째 에러가 너무 많았다. 이건 아무래도 초기에 크롤링을 시작할때 많은 에..
실전 프로젝트 4일차 1. 네이버지도 API 구현 처음에는 이 jsp로 구현을 해야겠다라는 생각을 했다. 이유는 json데이터를 주고받지를 못하기때문이다. 근데 아무리 생각해도 이 jsp를 사용하게 되면은 추후에 우리가 진짜 프로젝트 구현을 시작했을때 많은 걸림돌이 될것이라고 생각했다. 일단 구조자체가 우리와 익숙하지가 않았고 프론트엔드와 합칠때 우리가 생각한것 이상으로 훨씬 많은 에러들이 발생하고 스트레스가 유발되는 것을 보면서 아 이 jsp도 그렇게 한몫하겠구나 라는 불안한 생각이 계속 들기 시작해서 다시 알아보기 시작했다. 그리고 또 한가지가 무엇이냐면은 spring에서는 jsp를 쓰지말라는 글들이 간간히 있었다. 근데 다들 웃긴게 대체 무슨이유인지는 알려주지않고 일단 쓰지마라라는 의견이 많았다. ..
실전프로젝트 2일차 1. 더미데이터를 넣는 것이 정말 유효한 값일까? 전날과 같은 고민을 하게 되었다. 아무래도 우리가 6주간 계속 다뤄야할 데이터들을 모으는 작업이기 때문에 많은 고민하기 때문이기도 하다. 음식점과 관련된 open api를 찾아서 전부 조회해보니 200만건정도의 데이터가 나오면서 어제부터 오늘까지 회의하고 정보를 검색하는 동안에 처음으로 어느정도 유효한 수치가 나왔다. 하지만 문제는 200만건의 데이터는 전국의 음식점 데이터였고 여기서 우리의 서비스 범위를 서울로 잡는다면 데이터 역시 서울의 음식점 데이터만 쓸 수 있을 것이고 여기서 또 문제는 일부 폐업한 음식점의 데이터도 존재한다는 것이었다. 그렇다면 결국 200만건의 데이터 중 절반보다 훨씬 적은 극히 일부의 데이터만 사용할 수 있..