Notice
Recent Posts
Recent Comments
Link
«   2024/11   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
Tags more
Archives
Today
Total
관리 메뉴

러닝머신 하는 K-공대생

중간고사 이후 무지성 잡담 본문

잡담, 일상

중간고사 이후 무지성 잡담

prgmti1 2022. 4. 22. 20:26

기다리고 기다리던 3학년 1학기 중간고사가 끝이 났다. 어느정도 폼이 오른 상태에서 시험을 본 것 같으나 아직 채점을 해보지 않아 걱정이 된다. 과학고는 막판 뒤집기가 가능하니 어떤 결과가 나오든 담담히 받아들이고 다음을 준비하자. 사실이 아닐지라도 이렇게 생각하는게 정신건강에 좋다. 매번 시험을 보지만 모든 시험에서는 DB 구축과 이를 받아들일 서버 최적화 및 개선, 유연하게 시험장에서 DB에 접근하는 쿼리 작성능력과 접근 속도가 중요한 것 같다. 비휘발성 메모리인 EEFROM을 활용하는 것도 도움이 된다. 아직 수행평가와 기말이 남았으니 차분히 마음을 가라앉히고 다시 현생에 집중해야겠다. 들뜬 상태는 불안정하여 바닥 상태로 가라앉을 때 에너지를 방출하게 된다. 나는 그 방출시킨 에너지를 수학 실력 쌓기와 솔브닥 플레 달성 + Graph-Cut 알고리즘 쪽 공부를 진행하고 싶다. 작년 2학기 지난 이후 백준을 제대로 풀지 않았는데 Class 5를 제대로 밀며 뉴비탈출에 성공할 수 있기를 바란다. 수학 실력 쌓기는 숙명의 과제지만 수행평가 준비도 할겸 논술 문제를 다시 풀고 머리 식힐겸 수리나침반 문제를 밀어보자. 그리고 중간고사 공부한다고 까먹었던 Calculus 기말범위 복습도 시작해야 할 것이다. 음... 너무 사적인가? 그럼 같이 알면 좋은 사실도 공유하겠다. 최근 Tensorflow KR에서 Gradient Boosting에 대한 감동적인 글을 보게되었다. 나는 캐글에서 자주 쓰이는 XGBoost 알고리즘을 이해없이 사용하곤 했었는데 자세히 이해해보고 싶다고 마음먹었지만 관련 국내 자료가 부족했었다. XGBoost랑 Gradient Boosting은 조금 다르지만 기본적인 논리 과정은 비슷하다. Gradient 약한 학습기를 학습시키는 방식으로 목적함수에 규제항을 적용하고 이를 테일러 시리즈 2차 근사하여 뉴턴 메소드를 사용하는 부분의 차이만 있을 뿐. 이 노트북을 따라읽어보며 이해하길 시도한다면 나도 머신러닝 유행을 따르는데 도움이 되지않을까? 이 글을 보고 있는 당신도.

gradient_boosting.ipynb

Run, share, and edit Python notebooks

colab.research.google.com

이외로도 KAIST 23학년도 신입생 입학 전형이 발표되었는데 작년과 차이점이라면 자소서 1번 질문이 STEM 분야로 한정되었다는 것과 우수성 입증자료를 추가로 제출할 수 있다는 사실이다. 우수성 입증자료는 특기자 전형만 가능했던 이전과 달리 일반전형에서도 우수성 입증자료를 추가로 제출할 수 있다는 것을 보니 생기부엔 담기지 못한 지금까지 도전해왔던 과정들을 담을 수 있는 좋은 기회인 것 같다. 24학년도 신입생 입학 전형을 보면 더욱 재밌다 내신만 잘 받는 학생들만을 선택하는 것 대신 내신도 잘받고 창의적이고 열정적인 인재를 뽑고자 하는 것은 아닐까? 학생의 학업 역량을 PASS/FAIL 로 평가하고 학생의 활동을 많이 보는 POSTECH 도 매력적이라 생각했는데 이번 카이 입학 전형은 참신하다고 느껴진다. 두 학교 다 마음에 든다.

UPD) 중간고사 폼 미쳤다.

'잡담, 일상' 카테고리의 다른 글

KAIST에 가서 이루고 싶은 것들  (0) 2022.08.24
대학별 관심학과 정리  (0) 2022.07.03
Good Bye, 2021 R&E  (0) 2022.01.04
그저 그런 잡담.  (3) 2021.08.06
학교 일상 + 개발 아이디어 끄적이기  (9) 2021.03.18
Comments