나한테 정말 도움이 많이 되었던 책....

원저자는 Baeza-Yates 와 Ribeiro-Neto 인데 성공회대 교수님들께서 번역 출간하셨다.

개인적으로 이 책은 정말 훌륭한 책이라고 생각한다. 검색에 관한 기초적인 개념부터 상세한 이론적 배경, 최근의 검색엔진에 관한 내용까지..총 망라한 책이다.

이책을 보고 기뻐하시는 분들도 있을지 모른다..아 검색엔진 공부좀 해볼까?

그러나아~ 아쉬워라... 절판이다.. 그도 그럴것이 누가 이렇게 수식과 기호와 알 수 없는 단어들로 빽빽히 찬 책을 좋아하겠는가?

슬퍼마시라영문판이 있다. amazon.com 에서 modern information retrieval 을 검색해보시라.

무려 12% 할인해서 44달러에 판매되고 있다... 책을 사서 보실때 주의하실점.. 넘 졸립다고 제게 머라고 하지 마시라..책이 무슨 죄가 있겠는가?


다음 책은, Understanding Search Engines: Mathematical Modeling and Text Retrieval (Software, Environments, Tools) by Michael W. Berry, Murray Browne.

amazon.com 에서 41달러다...


전문적으로 공부를 하실 생각이 없다면...이런 책 사 보실 필요는 없다..그냥 검색엔진에서 Information Retrieval이라고만 쳐도 많은 정보를 보실 수 있으니까...

그럼 필자능 위의 책들을 다 읽었을까? 책산지 3년이 다되었건만...여전히 보다가 잠이 들고 있다..ㅋㅋ

도움이 되실만한 웹사이트는 성공회대 전산과 교수님들의 홈페이지에 있는 검색엔진에 관한 강의 자료이다. 검색엔진의 이론적 기초를 다지고자 하시는 분들께는 아주 훌륭하다. 나중에 URL 을 올릴테니참조하시라..


2004. 11. 2. 11:14

오늘이 국군의 날이죠? 동료들과 담배를 피우다 갑자기 어릴때 추억들이 떠오르더군요.

저는 군인이셨던 (사실 지금도 군인 같으신) 아버지 덕분에 어릴때 군부대 근처에서 생활하던 기억이 많았습니다. 그중에서도 아버지께서 대대장으로 부임하셨던, 철원에서의 생활이 제일 기억납니다.

당시 GOP 근무를 하시던 아버지 사무실의 이층침대에서 잠을자다가 바라본 북녘땅의 모습이 오늘은 더욱 생생하게 기억나는군요. 그곳은 155마일 휴전선 정중앙에 위치한 곳이었고, 6.25때 격전지중에 하나였는데, 삼천개의 봉우리가 만나는 지점이라고 해서 "삼천봉" 이라 이름지워졌다고 합니다. 어릴땐 정말 아무나 가볼 수 없는 곳이었는데, 2002년부터는 전망대를 두고 관광 및 견학 코스로 사용하더군요. 세월 좋아졌죠?

빨리 통일이되어 그땅을 한번 밟아봤으면 하는 생각이 간절합니다. 보수적이라고 생각하실 수도 있겠지만...오늘도 그곳에서나라를지키고 있을우리의 아들 딸 동생들을 생각하면, 각종 병역비리에도 뻔뻔하게 고개를 들고 인터뷰 하는 현실이 아쉽고, 그들의 노고에 미안하고 감사한 마음이 절로 드는군여.


내사진은 아니고...2002년 개방되기 전에 국토 순례단이 기념촬영한거랍니다.

저뒤의 삼천봉이라고 써있는 돌의 글씨와 공사는 제가 이세상에서 가장 존경하는 우리 아버지께서 하신거랍니다.

삼천봉 근처에 위치한 승리전망대에 관한 자료 - 관광코스로도 좋답니다 ^^ - 통일교육원 발췌

 해발 459M의 이 전망대는 행정구역상 강원도 철원군 근남면 마현리에 위치해 있으며, 휴전선155마일(1마일=약 1.6km,155마일=약250km)정중앙에 위치해 있다. 이 전망대는 서울역으로부터 104km, 춘천으로 부터는34km 떨어진 지점에 위치해 있으며, 2001년 12월에 준공하여 2002년 2월부터 민간인에게 개방하고 있다. 전방에는 나무가 긴 띠처럼 선형으로 이어져 있는 것을 볼 수가 있는데 이것이 바로 군사분계선이며, 이 군사분계선을 기준으로 북과 남으로 2km 떨어진 지점에 각각 북방한계선과 남방한계선이 위치해 있다. 전방으로 산 중턱을 깎아 만든 두 개의 붉은 새 불모지를 볼 수 있는데, 두 번째 불모지가 바로 북방한계선으로서 예전에 북한철책이 형성되어 있던 흔적이다.
 10 ~ 11시 전방에 철탑 모양의 건물이있는 우뚝 솟은 산은 해발 1062m의 오성산으로서, 하늘에서 내려다보면 다섯 개의 산이 별모양을 하고 있다고 해서 다섯“오”자와 별“성”자를 써서 그 이름이 붙여졌고 , 북한에서는 각각의 산에 신이 살고 있다고 해서 오신산이라고 부르고 있다. 전망대에서 11시 방향의 좌우로 길게 뻗어 있는 능선은 저격 능선으로서 일명 “피의 능선”이라고 불리고 있다. 그 이유는 6ㆍ25전쟁 당시에 43일간의 전투동안 42회 정도 고지의 주인이 바뀔 정도로 전투가 치열해서 북한 병사 15,000여명과 남한 병사 5,000 여명의 사상자가 발생했기 때문이다. 북한철책이 형성되어 있는 바로 앞의 능선너머로보이는 조그마한 역삼각형 모양의 평야는아침리마을이다. 아침리마을은 전망대로부터 약10km 정도 떨어진 지점에 위치해 있으며, 저 곳에서 아침식사를 하고 금강산 관광을 하면 일정이 맞다고 하여 그 이름이 붙여졌다고 한다. 우리들의 눈앞으로 넓게 펼쳐져 있는 이 곳 비무장지대는 분단 이후 약 50여년 동안 사람의 손길이 거의 닿지 않아 맷돼지와 고라니를 비롯한 각종 야생동식물들이 서식하는 등, 세계 어느 곳에서도 찾아보기 힘들만큼 자연환경이 그대로 잘 보존되어 있습니다.
 따라서 만약 통일이 이루어지더라도 이 곳 비무장 지대만큼은 개발을금하고 자연보호구역으로 지정해야 한다는 목소리도높다. 뿐만 아니라 이 곳에는 6ㆍ25전쟁 당시에 매설해 놓았던 수많은 지뢰들이 제거되지 않고 그대로 묻혀 있으며, 한 민족간에 총을 겨눈 채 긴장감을 늦추지 않고 대치되어 있어야만 하는 가슴 아픈 과거를 안고 있는 곳이기도하다.


관측소에서 바라본 북한군 막사에 평화라는 글귀가 써있군요...평화 평화 평화

우선 내 마음의 평화를 찾아야 겠죠?

2004. 10. 1. 11:17

무언가를 정말로 이해한다는건...

아래는 은사중의 한분이신 허명회 선생님(http://www.korea.ac.kr/~stat420)의 글이다.




이분의 강의는 명료하고 번득이는 설명으로 항상 머리속에 쏙쏙들어오는 명강의 이다.

또한, 선생님이 저술한 수많은 책들과 논문들은 항상 쉽게 이해 가능한 수준의 예시를 들어 마치 그분의 강의를 듣고 있는 듯한 착각에 빠지게 한다.

우리는 흔희 많은 전문용어로 떠들어대며 난해한 이야기를 지적 능력의 표현으로 여기는 사람들을 우러러 볼때가 있다. 하지만 무언가를 정말로 알고 있다면 쉽게 이야기 할 수 있어야 하고, 이해시킬 수 있어야 한다.

정말 알고 있는가 ? 이런 물음이 내게 주어지면 예전 선배들이 말해준 구술시험 문제를 떠올린다.

"중심극한정리(Central Limit Theorem)을 9살짜리 어린아이가 알아들을 수 있도록 설명해라!"

중심극한정리를 제대로 증명하려면, 한페이지 가득 지렁이기어가는 수학기호들을 나열해야 한다. 그런데, 이걸 9살짜리한테 설명하라니...그때는 이해가 안되었지만, 시간이 지남에 따라 나는 이 문제의 본질에 접근할 수 있었다.

그럴 수 있어야 정말 잘 알고 있다고 할 수 있는것 아닐까?

요즘 다시 데이터마이닝에 관한 책들을 읽고있다. 몇년동안 나름대로 이분야에 대해 관심을 기울여왔다고 생각했는데 아래 선생님 글을 읽고 있으니까..."아 ! 난 정말 모른다" "아 ! 정말 난 아직 ~~ 아~~직 멀었다"

데이터 마이닝 모델링에 대한 개념적 이해


허 명 회 (고려대학교 통계학 교수)

 

많은 기업들이 데이터 마이닝으로써 경영 지식을 과학적으로 도출해내고 이를 CRM에 활용하고 있다. 데이터 마이닝에 쓰이는 모델링 방법은 다양하지만 이 중에서 신경망(neural network), 나무형 분류(tree-structured classification), K-평균 군집화(K-means clustering), 자기조직화 지도(self-organizing map) 등이 대표적이다. 일반 경영자들이 쉽게 이해할 수 있도록 이들 모델링 방법론을 개념 위주로 설명하고자 한다.


1. 신경망 모형은 선형회귀 모형과 어떻게 다른가?


선형회귀 모형(linear regression model)은 1개의 목표변수를 규명하기 위하여 다수의 설명변수를 사용하되 관계식을 선형으로 설정한다. 예로서 개인 소득이 관심이라고 하자. 당연히 개인 소득은 고객간 상당한 변이를 보일 것이다. 왜 소득이 다른가? 무엇과 연관이 있는가? 소득과 관련 있는 변수들이 무엇인지를 알고 있고 개별 고객에 대하여 관련 변수들의 자료 값을 취하였다면, 기업은 고객 개개인에게 가구 소득을 일일이 묻지 않고도 그것을 알아낸 셈이 된다. 개인 소득과 관련 변수들 사이의 관계식을 활용한다면 말이다. 개인 소득에 대한 설명변수가 교육년수와 나이라면, 선형회귀 모형은 교육년수가 길수록, 그리고 나이가 많을수록 소득이 선형적으로 증가한다고 가정한다. 즉 12년 교육을 받은 사람과 16년 교육을 받은 사람간 소득 차이가 월 40만원이라면 16년 교육을 받은 사람과 18년 교육을 받은 사람간의 소득 차이는 월 20만원일 것이다. 나이에 대하여도 이와 같다. 교육년수가 같은 두 사람 중 한 사람이 30세이고 다른 한 사람이 45세인데 소득 차이가 월 100만원이라면 (45세 쪽이 많음), 교육년수가 같은 45세인 한 사람과 60세인 다른 사람 간 월 소득 차이도 월 100만원일 것이라고 가정한다 (60세 쪽이 많음).

그런데 요즘 세상은 이렇게 질서정연하게 움직이지 않는다. 특히 나이에 있어서 그럴 것이다. 45세 사람이 30세 사람에 비해 월수입이 많을지라도 60세인 사람은 45세 사람에 비해 월수입이 작을 수 있고 많더라도 그렇게 월 100만원이나 차이가 나지는 않을 것이다. 이런 비선형적 효과가 자료에 내재하여 있다면 소득에 대한 선형회귀 모형은 헛다리 짚는 셈이 된다. 자료를 보는 틀(=모형)이 경직되어 있어 자료가 명백히 말하는 것을 분석자가 알아듣지 못하는 결과가 된다.

신경망 모형이 선형회귀 모형에 비해 다른 첫 번째 점은 신경망은 설명변수의 비선형적 효과를 포착해낸다는 데 있다. 나이가 소득에 주는 효과가 처음에는 증가하다가 일정 나이를 지나면서 정체하는 경향이 있다면 신경망은 그것을 스스로 알아낸다. 이것은 우리가 음식에서 단 맛을 느낄 때 음식의 당도가 높을수록 단 맛의 강도가 커지지만 음식의 당도가 엄청 크다고 해서 그에 상응하는 단 맛을 느끼지 않은 것과 같은 이치이다. 이와 같이 데이터 마이닝에서 사용하는 인공 신경망 모형은 생물체의 실제 신경망과 같은 이치로 작동한다. 왜? 이에 대한 답은 쉽지 않다. 환원적이지만, 인공 신경망을 실제 신경망과 유사하게 만들었고 가급적 더욱 유사하게 되도록 계속 개량해나가기 때문이라고 이해하면 되지 않을까 싶다. 현재까지 나온 인공신경망 중 대표적인 다층 퍼셉트론 모형은 입력 층과 출력 층 사이에 은닉 층을 둔다. 그리고 그 안에 뉴런(신경세포)을 넣는데 뉴런은 입력노드로부터 받은 신호(자료)들을 조합하여 적절한 반응(변환)을 산출한 뒤 출력노드로 보내 최종 정보처리 하는 과정을 거친다.

그러면, 신경망 모형은 만능인가? 설명 변수들의 리스트를 분석자가 제시하여야 한다는 점에서 신경망의 지능 수준은 선형 회귀와 마찬가지이다. 소득과 관련 있는 변수를 스스로 알아내지는 않는다는 의미이다. 교육년수와 나이 외에 무엇이 소득과 관련 있는 변수인지 그럴 가능성이 있는 변수들을 분석자가 먼저 말하지 않는다면 신경망은 더 이상의 작업은 하지 않는다. 다시 말하여, 현재까지의 인공 신경망은 수동적인 작업자일 뿐 스스로 생각하고 행동하지 못한다.

신경망이 오히려 선형회귀 만도 못한 측면도 있다. 우리가 우리 몸의 신경계를 운영하고 있지만 동작 원리를 잘 모르고 있듯이, 분석자가 신경망 모형을 구축하였다 하더라도 내부까지 샅샅이 이해하는 것은 매우 어렵다. 단지 이런 값을 신경망 모형에 넣으면 이런 값이 나오고 저런 값을 넣으면 저런 값이 나온다는 것을 여러 번의 시행을 통하여 볼 수 있을 뿐이다. 이렇듯 모형 자체에 대한 설명이 어렵기 때문에 실제 기업의 BI 활용시 신경망을 쓰지 못하는 경우도 있다. 예컨대 신용예측 모형을 신경망으로 만든 경우 왜 고객 A는 좋은 신용으로 예측되는데 그 보다 못할 것 없어 보이는 고객 B는 나쁜 신용으로 예측되는지를 신경망이 알려주지 않기 때문이다.


2. 나무형 분류 모형은 엔트로피를 어떻게 감소시키나?


자연과학에서는 불확실성을 엔트로피(Entropy)로 계량화한다. 엔트로피의 정의를 예를 들어 살펴보기로 하자. 사건 A, B, C, D 중 어느 하나가 발생하는데 각각 확률 1/4, 1/4, 1/4, 1/4로 발생한다면 엔트로피는

- (1/4)log2(1/4) - (1/4)log2(1/4) - (1/4)log2(1/4) - (1/4)log2(1/4) = 2.00

이다 [여기서는 밑수가 2인 로그가 사용되었는데 꼭 그래야 하는 것은 아니다. 어느 값을 밑수로 하든지 수치적으로는 다른 엔트로피 값이 나오지만 전체 방법론에는 영향을 주지 않는다]. 이에 반하여 4개 사건의 발생 확률이 4/8, 2/8, 1/8, 1/8이라면 엔트로피는

- (4/8)log2(4/8) - (2/8)log2(2/8) - (1/8)log2(1/8) - (1/8)log2(1/8) = 1.75

가 된다. 따라서 먼저 경우에 비하여 엔트로피가 작다. 그렇다면 나중 경우의 불확실성이 상대적으로 작다는 것인데 이것이 맞는 말인지 곰곰이 생각해보자. 먼저 경우에서는 A, B, C, D 중 어느 것이 발생할지 전혀 알 수 없다. 그런데도 예측해야 한다고 해서 A를 택하였다고 하자. 그러면 오류 확률은 3/4이다. 나중 경우에서는 A, B, C, D 중 어느 것이 발생할지 알 수 없지만 A에 대한 확률이 가장 높으므로 A로 예측하는 것이 좋을 것이다. 그러면 오류 확률은 4/8이다. 그러므로 나중 경우가 더 가시적이고 덜 불확실한 경우라고 할 수 있다.

나무형 분류 모형은 목표 범주의 예측에 있어서 엔트로피를 최소화하는 설명변수를 단계적으로 찾아 활용한다. 예컨대 자동차 보험 가입자의 위험 등급 (A, B, C, D; 각각 확률 1/4) 예측이 관심인 경우 무엇을 기준으로 나눔으로써 엔트로피가 최소가 되는가를 찾는다. 나이가 30대 이하(전체의 50%)인가, 아니면 40대 이상(50%)인가로 나누는 경우, 30대 이하에서는 A, B, C, D 등급일 확률이 4/8, 2/8, 1/8, 1/8이고 40대 이상에서는 그 확률들이 0, 2/8, 3/8, 3/8이고 하자. 그러면 엔트로피는 다음과 같이 산출된다.

1) 30대 이하 (50%): 1.75 [앞에서 이미 계산되었음]

2) 40대 이상 (50%): 1.03 [앞에서와 같이 계산하되, 0 log2 0 = 0 으로 함]

따라서 평균 엔트로피는 1.39 (=0.5*1.75+0.5*1.03)가 된다. 그러므로 엔트로피는 나이대로 분류하기 전의 2.00에서 0.71 (=2.00-1.39)만큼 감소한 것이다. 이것은 나이대로 나누었을 때의 결과이므로 다른 것을 기준으로 분류하였을 때 더 큰 엔트로피의 감소가 있나 살펴, 그런 분류가 있다면 그것을 기준으로 한다는 것이 나무형 분류 모형의 기본 아이디어이다. 예컨대 나이대, 흡연 유무, 운전 경력 등으로 분류하여 얻는 결과들을 서로 비교하여 최선의 것을 찾는 것이다. 일단 1개의 분류 기준이 확정되면 그 다음엔 무엇으로 나누는 것이 좋은가를 계속 탐구하여 최종 분류 나무를 얻는다.

나무형 분류 모형의 방법론으로 대표적인 퀼란(Quilan, 1988)의 C4.5와 이것을 개량한 C5.0이 이제까지 설명한 엔트로피를 사용하고 있고 브라이만 등(Breiman et al., 1984)의 CART(Classification and Regression Trees)는 지니 지수(Gini Index)를 활용하는 데, 지니 지수는 엔트로피와 개념상 유사하다.

나무형 분류 모형은 결과를 읽기가 아주 쉽기 때문에 ["If-Then"의 반복 형식으로 되어 있으니까] 데이터 마이닝에 자주 활용된다. 그러나 어떤 기준 점을 중심으로 나누어지므로 설명변수 값의 작은 차이에서 예측 결과상 큰 차이가 빚어지기도 하므로 모형이 다소 불안정하다는 단점이 있다. 그러나 최근에는 배깅(Bagging), 부스팅(Boosting) 등 다양한 보완적 방법이 나왔으므로 앞으로 더욱 자주 활용될 것이다.


3. K-평균 군집화는 어떤 생각에서 나왔나?


어릴 적 동네 공터에는 많은 돌들이 뒹글고 있었다. 이것저것 모아 보면 돌들이 크기와 재질면에서 제각각이여서 몇 개의 그룹으로 어렵지 않게 나눌 수 있었다. 고등학교 때 학우들을 생각해보자. 얌전한 모범생부터 활동적인 리더, 지사적 극기형, 몽상가형, 사고뭉치형 등 여러 그룹이 있었다. 인간이란 본래 집합적 대상을 이해할 때는 이와 같이 분류를 중간과정으로 활용하는 경향이 있다. 그것이 BI에서는 고객세분화로 나타나는데 이것은 동네 공터의 돌을 분류하는 문제와 다르지 않다.

K-평균 군집화(K-means clustering)란 많은 수의 개체들을 주어진 수(=K)의 그룹으로 분류하기 위한 방법이다. 이것의 원리는 다음과 같이 단순하다.

1) 처음에는 K개 그룹 각각에 1개씩의 개체를 넣는다. 각 그룹에 개체가 1개씩만 있으므로 그룹 중심은 그룹별로 처음 배당한 개체 스스로가 된다.

2) 남은 모든 개체 각각을 가장 가까운 그룹 중심을 찾아 그 그룹에 배속시킨다.

3) 각 그룹 중심을 새로 계산한다. 여기서 그룹 중심은 각 그룹에 배속된 모든 개체들의 평균이다.

4) 앞의 단계 2와 3을 충분한 회수 반복하여 수행한다. 이것이 막대한 계산적 부담이 될 것 같지만 실제로는 그렇지 않다. 실제로는 대략 10회 내외의 반복으로 충분하며 웬만한 자료라면 커피 한 잔을 마실 시간 이내에 계산이 완료된다.

K-평균 군집화에서 문제는 군집 수 K를 사전에 정하는 일이다. 분석자로서는 이것이 곤혹스럽지만 대략 상식적인 값을 시도한 뒤 그 결과가 해석가능하고 멋지게 보이면 채택하고 그렇지 않으면 그 수를 줄이거나 늘이는 방법이 무난하다.

최근에는 K를 정하기 위하여 자료 분할(data partitioning)을 활용하는 방법도 연구되었다 (허명회 등, 2003). 이것은 분석자료를 3개 셋 A, B, C로 분할하여 A와 B로부터 각각의 K-평균 군집화 규칙을 만들고 이들 규칙을 C에 중복 적용하여 분류 결과가 얼마나 상호간 일치하는가를 보는 것이다. 일치계수로는 랜드(Rand, 1971)의 일치도 또는 엔트로피 등을 쓴다.


4. 자기조직화는 어떻게 가능한가?


1980년대 중반 이후 핀랜드의 전기공학자 코호넨(Kohonen)에 의하여 개발된 자기조직화지도(Self-Organizing Map)는 다수의 다차원 공간상 개체들이 스스로 비슷한 것들을 찾아 끼리끼리 저차원 공간(2차원)에 자리 잡도록 하는 방법을 말한다. 어떻게 이것이 가능할까?

다음 상황을 생각해보자. 고객들을 큰 운동장에 소집하여 유사한 사람들끼리 근처에 자리 잡게 하는 것이 목적이라고 하자. 어떻게 하면 될까?

1) 처음에는 각 위치의 특성을 임의로 정한다.

2) 첫 사람을 가장 유사한 위치 특성을 찾아내 그곳에 세운다. 그리고는 그 주변의 위치 특성을 모두 업데이트 하는데 이 때 새로 그 주변에 세워진 사람의 영향을 일정 크기 고려한다. 그 사람이 세워진 곳에서 가까운 위치점의 특성은 크게 업데이트 되고 일정 반경 내이지만 먼 위치점들의 특성은 작게 업데이트 된다. 이 작업을 한 명씩에 대하여 반복 적용하되 점차 주변 반경의 크기를 줄이고 업데이트 하는 정도도 줄인다. (따라서 처음에는 반경의 크기가 크지만 점차 줄어든다. 업데이트 정도도 마찬가지이다.)

3) 앞 단계의 계산을 충분한 횟수 반복한다. 이에 따라 주변 반경은 계속 줄게 되어 맨 나중에는 바로 옆 위치점만 겨우 포함될 정도로 작아진다. 업데이트 정도도 처음에는 크지만 나중에는 무시될 수 있을 만큼 작아진다.

그러므로 자기조직화 과정에서 처음에는 사람들의 위치 변경이 심하지만 점차 안정되어 가며 유사한 사람들은 근처에 자리 잡게 된다.

자기조직화지도도 고객 세분화에 사용될 수 있다. 이 점에서는 K-평균 군집화와 마찬가지이지만 자기조직화지도는 고객들의 위치를 시각적으로 보여주기 때문에 훨씬 유연하게 활용될 수 있다. 여러 통계전문가들은 자기조직화지도를 K-평균 군집화의 확장으로 보기도 하지만 이것보다는 주성분/인자분석의 비선형적 버전으로 이해하는 것이 더 옳다.

이상으로 데이터 마이닝의 4개 방법론인 신경망, 나무형 분류, K-평균 군집화, 자기조직화지도 등을 살펴보았다. 이들 방법론 외에 연관성 분석 방법으로 Apriori, GRI 등의 알고리즘을 SPSS 클레멘타인, SAS E-miner 등 유명 데이터 마이닝 소프트웨어들이 제공하고 있다. 그러나 이들 방법론들은 다수의 파라미터들이 제대로 설정되었을 때 최대의 성과를 낼 수 있으므로 무조건 따라하기 식 활용은 위험하다. 전문가의 자문을 필요로 하는 부분이다.


비즈니스 인텔리전스 월드 2003년 여름 pp. 28-33

2004. 8. 24. 15:43

요즘 회사에서 부쩍 친해진 최주식 과장님이 싸이 홈피에 나도 모르게 내 사진을 멋지게 올려 주셨더군요.


꽤 비싼 카메라로 찍어서 그런지 얼굴은 별루라도색감이 좋지요? ㅋㅋ

사실요즘 세상에 마음을 열고 서로 친하게 지낼만한 동료를 찾기 어려운데..

참으로, 멋지게 살아가는 최주식 과장님과 친하게 되어 넘 기분 좋답니다. 생각만 해도 기분 좋은 사람.

2004. 8. 20. 10:47