전체 글
-
TIL 2023.06.16내일배움캠프 2023. 6. 16. 21:53
오늘은 푸터를 만들고 배포 준비를 시작했다. ec2 인스턴스 중에 gpu가 있는 것 중 가장 싼 게 g4dn.xlarge 인데 요금이 0.647 USD 시간당이나 된다. 3주 내내 켜놓는다면 40만원 가량.. 그 다음으로 쓸 만 한 건 cpu 와 메모리 성능이 좋다는 c5 중 가장 저렴한 c5.large = 0.096 USD 시간당 내배캠에서 지원해주는 서버 비용은 3만원 가량 거기에 맞추려면 t2.medium = 0.0576 USD 시간당도 3 주동안 사용한다면 3만원이 넘어간다 .......지난 프로젝트에서 t2.micro 썼을 땐서버 성능이 프로젝트를 감당하기 힘겨워 보였다.이번 프로젝트는 지난 프로젝트보다도 무거울 텐데t2.micro는 부족할 것이다. 다음주에 테스트를 잘 해보자
-
TIL 2023.06.15내일배움캠프 2023. 6. 15. 20:19
어제부로 내 할일은 대충 끝내서 오늘은 다른 일을 했다. 스팟 앱을 만들어서 Area, Sigungu, Spot 모델을 루트 앱에서 분리했다. 관련해서 뷰도 만들고 특히 spot뷰는 지역 필터링 기능과 제목으로 검색하는 기능 + 페이지네이션까지 구현했다. django-filter 라는 패키지로 필터링을 간단하게 구현할 수 있었고 drf에 내장된 ListAPIView 으로 페이지네이션과 필터링 검색까지 간단하게 구현할 수 있다. from rest_framework.generics import ListAPIView from django_filters.rest_framework import DjangoFilterBackend from spots.models import Spot from spots.serial..
-
TIL 2023.06.14내일배움캠프 2023. 6. 14. 19:14
오늘은 조리로 ai 페이지를 완성했다 템플릿을 받아와서 프런트 틀을 잡았는데 제공해준 select tag에 class 이름으로 자바스크립트를 짜 논 게 있어서 select tag의 값이 바뀔 때 마다 함수를 호출하게 하는 게 불가능 했다. 그래서 스타일은 포기하고 그냥 select tag 사용했다. 그러니 이쁘진 않지만 작동은 잘 되었다. 자바스크립트에서 딕셔너리를 만들려면 imageDict = {}; imageDict[1] = 'background-image: url(/images/625.jpg);'; imageDict[2] = 'background-image: url(/images/haeundae.jpg);'; imageDict[3] = 'background-image: url(/images/hanr..
-
TIL 2023.06.13내일배움캠프 2023. 6. 13. 19:53
오늘은 erd를 다시 조금 손보고 Tour API의 데이터를 저장하는 테스트를 마쳤다. 또한 루트 작성하는 시리얼라이저에 문제가 있어서 같이 손 보았다. 그리고 조리로AI 페이지의 프런트를 작성하고자 한다. 먼저 javascript 공부를 좀 했다. JS 기초 CRUD - 플레이리스트 JS Crud 1강 - 기초 문법 - https://youtu.be/VvMF1VP1kTg (10:14) JS Crud 2강 - getElement - https://youtu.be/O9ReDAXUp9k (04:34) JS Crud 3강 - toggleClass - https://youtu.be/3Z42Z6i4Juk (13:31) JS Crud 4강 - onclick - https://youtu.be/3Z42Z6i4Juk (..
-
TIL 2023.06.12내일배움캠프 2023. 6. 12. 20:46
최종 프로젝트 2 주차다 오늘은 장고에 이미지 사람 영역 분할 및 배경 합성 ai 를 적용시켰다. 생각한 대로 잘 작동해서 놀랐다. 그리고 Tour API 에서 데이터를 받아와 db에 저장하는 법을 알아냈다. https://docs.djangoproject.com/en/4.2/howto/initial-data/ Django The web framework for perfectionists with deadlines. docs.djangoproject.com 장고 공식문서를 참고하자 json 파일로 만들려면 아래 형식을 써야한다. [ { "model": "myapp.person", "pk": 1, "fields": { "first_name": "John", "last_name": "Lennon" } }, ..
-
TIL 2023.06.09내일배움캠프 2023. 6. 9. 21:01
오늘도 ai를 손을 봤다. 먼저 어제 말한 인도형님 영상을 보면서 U2-Net을 이용해 학습을 해줬는데 콜랩 GPU 런타임이 4시간만에 끝나버려서 학습이 중간에 끊겨버렸다. 500 에폭 중 7에폭까지만 돌릴 수 있었다. 한 에폭에 40분이나 걸리는... 학습하다 만 모델로 테스트 해봤는데 어제 만든 거 보다 시간도 더 오래 걸리고 성능도 별로였다. 학습만 제대로 되면 성능은 진짜 괜찮을 거 같은데 시간이 너무 오래 걸린다. 모델 용량이 500메가가 넘으니 그걸 불러오는 데도 오래걸린다. 그래서 기존 토치비전의 다를 모델들도 사용해보았다. FCN_RESNET50 - 기존 사용하던 모델, 시간 가장 오래 걸리고, 성능은 가장 좋다. LRASPP_MOBILENET_V3_LARGE - 가장 가벼운 모델, 시간 ..
-
TIL 2023.06.08내일배움캠프 2023. 6. 8. 20:24
오늘은 어제 만든 인물 segmetation 기능을 조금 손보았다. 먼저 모델을 교체했다. DeepLabV3를 썼던 것을 FCN으로 바꿔주었다 여기서 알게 된 사실이 torchvision의 segmentation model은 이미지를 PIL.Image혹은 torch.Tensor의 형식만 받는 다는 것이었다. 결과 반환도 Tensor 형식이기에 openCV를 이용해 편집하려면 Numpy 형식으로 변환을 해줘야 했다. detach().cpu().numpy() 명령어로 변환을 해줄 수 있었다. 그리고 배경 합성부분까지 작성을 했다. 다른 세그멘테이션 모델도 찾아보다가 https://youtu.be/S54EprtQdjA 이런 영상도 봤는데 더 최신 모델인 것 같다. 시간이 덜 걸린다면 이걸 쓰는 게 나을 수도 ..