즐겁고 덥던 여름도 이제 조금씩 가을을 향해 가는 느낌입니다. 아직 너무 이른가요? ㅎ
혼만딥이라는 새로운 책이 나와서 뒤도 돌아보지 않고 바로 스터디 신청을 했습니다. 혼공딥 스터디를 했었던 저로서는 이번 내용이 상당히 재미있고 즐거운 스터디가 될 줄 알았건만, 첫 챕터부터 상당히 곤혹스러운 내용들이 많이 나와서 여기저기 찾아보느라 고생을 많이 했던 것 같습니다.
스터디를 마치며 저자님께 드리고 싶은 말씀은, 혹시 추가로 집필을 하실 계획이시라면, 혼공딥과 혼만딥의 중간에 있는 교재를 하나 더 만드셔도 될 것 같다는 말씀을 드리고 싶구요, 이 책을 읽으시는 독자 여러분께 드리고 싶은 말씀은, 혼공딥을 다시 들여다 보니깐 이 책이 정말 잘 씌여진 것 같으니 꼭 두 책을 같이 보시라고 말씀을 드리고 싶습니다.
여기저기 찾아보느라 나름 공부에 성과가 있었던 부분도 있었는데, 손실함수에 관해서 챗 gpt 에 물어보니, 손실함수 자체를 함수 내에 여러 함수가 포함된, 즉, 합성함수로 표현하고 있었다는 사실입니다. 이런 모양이지요: L = F(g(h(x))). 여기서 h(x)는 첫번째 합성곱층이고 g(h(x))는 두번째 합성곱층이고 … 이런 식입니다.
또, 시그모이드 함수나 기타 함수들을 보면, 일정한 모양을 하고 있는데, 0,1로 나타내서 직선의 그래프를 얻게 되면 계단함수가 나와서 미분 불가능이 되기 때문에 이런 함수들을 쓴다는 것, 그리고 이 함수들을 통해서 나오는 결과물은 결국 확률값이라는 것, 시그모이드와 비슷한 함수는 역탄젠트함수라는 것.. 등등.
이 내용이 시사하는 바는, 결국 딥러닝이나 LLM이나 기본적인 수학, 확률 및 선형대수의 지식이 없으면 이론적인 터득이 불가능하다는 사실입니다. 개발하시는 분들이나 취미로 공부하는 일반인이 인공지능의 참모습을 보려면 결국은 수학적인 배경이 필요하다는 것이 진리의 말씀인 것 같습니다. 이 책의 내용도 조금 깊이 들어가면 곳곳에 수학이 도사리고 있다는 것을 다시 한번 뼈저리게 깨달았습니다.
인공지능이 각광받는 요즘에 수학에 대한 필요와 교육이 절실한데, 사회에서 받아들이는 수학에 대한 인상은 그리 좋지 못한 것 같아 씁쓸한 점이 있습니다.
어쨌든 매주 배터지게 간식을 쏴주신 족장님 감사드리구요, 다음엔 책 당첨 하실적에 아주 편파적이고, 표나게 노골적으로 지원해주시면 정말 좋겠습니다. 공여사들의 엑셀 꼭 보고싶었던 책인데 다음에 당첨기회 있으면 또 응모해 보겠습니다.
모두 공부에 고생 많으셨습니다. 즐거운 가을 겨울 되시고 새로운 스터디에 뵈었으면 합니다.
감사합니다,.