호주 대학원 생존기 23

B's Burgers & dessert Lab 10달러 버거

매번 러닝을 할때면 머럼비나역을 지나가게 되는데, 지나갈때마다 10달러 버거를 파는 곳이 있어서 지켜보고 있었는데, 마침 다음주면 이사를 가기도 하니 이게 마지막 기회가 될 것 같아 점심으로 버거를 먹으러 갔다. 아침에는 해가 안떠서 침침했는데, 점심먹을때가 되니 곰새 해가 떠서 그늘로만 후다닥 머럼비나 역으로 출동하였다. 머럼비나역은 카네기 다음역으로 주변에 상권도 별로 없고 문도 엄청 일찍 닫아서 자주 안다녔는데, 역 근처에 세차장안에 있는 케밥집이 엄청 맛있어서 그 집 정도만 가끔 들리고, 러닝할때 지나가는 것 말고는 별로 인연이 없는 곳이였다. (앞으로 이사가면 더더욱 올 일이 없겠지..) 가게는 역 바로 옆에 있어서 쉽게 찾을 수 있다. 버거와 디저트들을 함께 파는 것 같았다. 영업은 사장님 혹..

저소음 귀마개 "Loop earplug" 출퇴근 소음 신경쓰일때 굿

나는 노이즈에 약간 민감한 타입이다. 그래서 사람많은 장소도 별로 안좋아하고, 일년 중에서도 학교 캠퍼스가 가장 조용한 방학시즌을 제일 좋아한다. 그래서 출퇴근 할 때 노래를 안듣더라도 가지고 있던 겔럭시 버즈를 끼고 다니는 경우가 많았다. 하지만, 문제는 내 귀가 엄청 작다는 것이다. 어지간한 earplug들은 나의 귓구멍에 비해 너무 크고, 겔럭시 버즈라던지 에어팟등은 조금만 착용하고 있어도 귀가 너무 아파와서 조금 착용하다가 곧잘 빼버리곤 했었다. 나같은 경험을 하는 사람들이 많아서 일까? 그냥 알고리즘이 우연하게 날 끌어들인 것일까? 하루는 인스타그램을 보고 있는데, Loop earplug 광고가 보였다. 처음에는 그냥 넘겨 버렸는데, 자꾸 겔럭시버즈가 나의 귀를 고통스럽게 하다보니, 결국 Loo..

브루어리 돌아다니기 (Burnley brewing and Goat beer)

나와 파이펫선생님은 종종 시간적 여유가 있으면 브루어리에 다니곤한다. 요새는 구글맵에 주변 부르어리들을 모두 핀박아두고 하나씩 도장 깨기를 하고 있다. 이번주말에는 Burnley brewing 과 Goat beer에 가서 신나게 탭비어를 먹고온 후기이다.  우선 점심겸 맥주를 먹으러 Burnley로 먼저 이동하였다.  역에서 내려서 조금 걸어오니 보이는 야외 테이블이 나를 설레이게 만들었다. 얼렁 들어가서 탭비어를 후루루룩 마셔버려야지. 우리는 예약을 하고 갔었는데, 공간도 크고 테이블도 많아서 주말 점심임에도 불구하고 엄청 넓은 자리에 앉아서 식사와 맥주를 즐길 수 있었다.친구들끼리 놀러와서 맥주 마셔도 굿!다른 펍들과 같이 평일에는 다양한 할인도 있으니 시간이 되면 평일에 와서 또 한잔하면 좋겠다. ..

Smokey Jake's Neighbourhood BBQ 후기

이유는 모르겠으나 최근에 기름이 쥴쥴 흐르는 맛나는 고깃덩어리를 먹고싶어져서 BBQ를 구글맵에서 검색하다가 집근처에 BBQ집이 있는것을 발견하였다. 최근에 꽁돈이 생기기도 하여 파이펫쌤을 모시고 함께 방문하였다. 주소는 아래와 같으니 관심있으시면 구글맵에 검색해 보시라  주소559A North Rd, Ormond VIC 3204 집에서 걸어가니 40분정도 걸렸는데, 엄청 날이 더워서 땀이 삐질삐질 흐를 쯤에야 도착할 수 있었다. 구글맵사진에는 어두운 분위기의 사진들이 많이 보여서 인테리어가 엄청 무거울줄 알았는데, 의외로 밝은 분위기였고, 가족끼리 함께 가도 충분할만큼 자리도 많았다, 2층과 야외 테이블까지 있다. 메뉴는 아래와 같다. 메뉴사진을 못찍어서 홈페이지에서 퍼왔다. 요것은 small plate..

[Computational Statistics] Fisher Information

Estimator 의 efficiency 를 설명할 때 필요한 Fisher Information 에 대한 내용을 다룬 포스팅이다. 1. Motivation parameter estimation problem을 푸는 과정에서 우리는 sample 데이터를 이용한 정보를 활용하게 된다. 그렇다면 알지 못하는 parameter에 대하여 sample data는 얼마나 많은 정보를 제공할 수 있는가? 에 대한 질문을 해볼 수 있다. random variable $X\sim f(x|\theta)$ 에 관하여 만약 $\theta$ 가 true value 인 경우, log-likelihood의 파라이터에 관한 1차 미분은 0 에 근접한다. (기본적인 Maximum likelihood estimation 하는 방법이다.)..

[Computational Statistics] Confidence Interval of linear model parameters (선형모델-2)

지난번 포스팅인 선형모델을 통하여 Least square estimator $\textbf{b}$를 구해보고 이것의 평균과 분산을 알아보는 시간을 가졌다. 이번시간에는 더 나아가 interval estimation을 하는 방법들을 살펴보자 아직까지는 Full rank model 만을 생각한다. 우선 지난번 포스팅을 통해 확인하였던 $\textbf{b}$의 평균과 분산을 다시 상기 시켜보자 $$\mathbb{E}[\textbf{b}] = \boldsymbol{\beta}$$ $$Var\ \textbf{b} = \left ( \textbf{X}^T \textbf{X} \right )^{-1} \sigma^2$$ 하지만 우리는 보통 $\sigma$에 대한 정보를 모르기 때문에 $\sigma$를 estimati..

[Computational Statistics] Linear model (선형모델)

지난 포스팅에서 다룬 랜덤벡터들의 성질을 이용하여 선형 모델의 Matrix form을 나타내보고, parameter들을 fitting하는 방법인 method of least squsres를 살펴보고자 한다. 1. Full rank linear model full rank 모델은 design matrix $X$ 즉 데이터 들이 담겨있는 matrix $\textbf{X}$ 가 full rank를 가짐을 의미한다 $$r(\textbf{X}) = k+1$$ 이는 다른말로 $\textbf{X}^T\textbf{X}$가 invertible 하다는 의미이다. 2. Model assumption $$\textbf{y} = \textbf{X}\boldsymbol{\beta} + \boldsymbol{\epsilon}$$..

[Computational Statistics] Random Vectors (랜덤 벡터)

Matrix 안의 elements 들이 단순한 숫자들이 아닌 Random Variable 이라고 생각해보자. 그렇다면 평균과 분산등은 어떤식 으로 표현될까? 이번 포스팅은 Random Vectors 와 Random matrices의 특징등을 기술 하였다. 1. Expectation (평균) ▶ Expectation properties 만약 $\textbf{a}$ 가 constants vector라면 , $\mathbb{E}[\textbf{a}] = \textbf{a}$ 만약 $\textbf{a}$ 가 constant vector라면, $\mathbb{E}[\textbf{a}^T\textbf{y}] = \textbf{a}^T\mathbb{E}[\textbf{y}]$ 만약 $\textbf{A}$ 가 cons..

[Computational Statistics] Linear algebra for the linear models (선형모델해석을 위한 선형대수)

왜 선형대수를 공부하는 것이 Linear model 들을 이해하는 데 도움이 될까? 이는 Confidence Interval을 구하기 위해서 평균(expectation) 혹은 분산(Variance) 또는 확률들을 구하여야 하는데, 데이터는 vector 혹은 matrices의 형태로 저장이 되기 때문에 이들의 연산을 수행하는 것이 필수적이다. 이번 포스팅은 이러한 Linear model들을 이해하기 위한 기본적인 선형대수들을 복습하는 포스팅이다. 너무 기초적인 내용들은 생략하였다. 1. Basics ▶ Dot product (설명 생략) ▶ Transposition $$(\textbf{X}^T)^T = \textbf{X}$$ $$(\textbf{XY})^T = \textbf{Y}^T\textbf{X}^T$..

[Numerical Analysis] Numerical Integration

수치적인 방법을 이용하여 적분을 수행하는 과정에 대한 포스팅이다. 'Numerical Methods and Optimizaiton : An Introduction (Sergiy Butenko)' - chapter 6 를 참고하였다 본 포스팅은 polynomial interpolation 학습을 가정한다. 생소하다면 아래의 포스팅을 참고하자 2021.07.06 - [[컴퓨터] 전산생물학/Modeling & Simulation] - [Numerical Analysis] Polynomial Interpolation [Numerical Analysis] Polynomial Interpolation $(x,f(x))$ 의 데이터를 가지고 $f(x)$를 approximation 하는 방법에 대하여 기술한 포스팅이다..

반응형