목록분류 전체보기 (111)
#wannabeeeeeee the best DataScientist

https://school.programmers.co.kr/learn/courses/30/lessons/131128 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 프로그래머스에서 난이도 Lv.1에서 가장 정답률이 낮은 숫자 짝꿍을 한번 도전해 봤습니다. def solution(X, Y): answer = "" --SORT와 REMOVE를 쓰기 위해 리스트로 모두 만들기 df = [] X1=[] Y1=[] --리스트에 값 넣기 for i in X: X1.append(i) for i in Y: Y1.append(i) --일치하는 값 발생 시 df 리스트에 넣..

2021년 상반기 우리은행에 디지털/IT 직무에 지원을 해 운 좋게 1차 인터뷰까지 간 바가 있어 관련 경험을 공유하고자 글을 적습니다. 우리은행 같은 경우 전용 사이트에서 합격자 유무를 알려줘 시간이 지난 지금 해당 사이트도 없어졌으며 메일에는 지원 내용만 남아있는 점 양해 부탁합니다..ㅎ 5대 은행(KB, 신한, 우리, 하나, NH) 중 신한카드와 하나카드를 제외한 처음으로 우리은행에 서류에 합격해 얼떨떨했습니다. (TMI : 당시 서류조차도 못 뚫어서 역시 지방대 늙은이는 필기시험을 칠 기회도 안 주는구나 하고 생각하고 있었습니다. 물론 지금도 그렇게 생각하고 있지만...) 그렇게 필기시험을 치기 위해 서울로 올라갔습니다. 언어(20%), 수리(60%), 경제(20%) 정도의 비율이었을 것입니다. ..

페인트에 전혀 관심이 없던 저는 영업관리 직무에서 통계, 데이터분석 관련 자격증 소유자를 우대한다는 공고를 보고 지원을 했습니다. 회사 네임도 안 볼 수는 없지만, 당시는 저는 제가 원하는 직무에서 일만 할수 있다면 회사는 상관없다는 마음이었습니다. 그렇게 서류에 합격하고 필기는 AI 역량검사로 진행했습니다. 다른 AI 역량검사와 다를 게 없었습니다. AI 역량검사에서 합격한 후 서울 본사에서 면접을 진행했습니다. 면접자 4명과 지원자 4명으로 대면 면접을 진행했으며 당시 면접자 중 한 분은 오진수 삼화페인트 대표님도 계셨습니다.(여담으로 대표님의 당시 이미지는 인자하신 분 같았습니다.) 영업관리 직무에 면접을 보러온 사람은 총 4명 중 1명 채용을 목표로 두고 있었던 거 같았습니다. 자기소개를 시작으로..

01. K-평균 알고리즘 이해¶ K-평균은 군집 중심점(centroid)이라는 특정한 임의의 지점을 선택해 해당 중심에 가장 가까운 포인트들을 선택하는 군집화 기법입니다. 군집 중심점은 선택된 포인트의 평균 지점으로 이동하고 이동된 중심점에서 다시 가까운 포인트를 선택, 다시 중심점을 평균 지점으로 이동하는 프로세스를 반복적으로 수행합니다. 모든 데이터 포인트에서 더이상 중심점의 이동이 없을 경우에 반복을 멈추고 해당 중심점에 속하는 데이터 포인트들을 군집화하는 기법입니다. K-평균의 장점 : 군집화에서 가장 많이 활용되는 알고리즘, 알고리즘이 쉽고 간결하다. K-평균의 단점 : 거리 기반 알고리즘으로 속성의 개수가 매우 많을 경우 군집화 정확도가 떨어집니다.(PCA로 차원 감소를 적용해야 할 수도 있습..

In [1]: # 기본 라이브러리 import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as plt from statsmodels.formula.api import ols # 지도 시각화를 위한 라이브러리 import folium import requests import json In [ ]: # 서울 행정구역 web 사이트 연결 r = requests.get('https://raw.githubusercontent.com/vuski/admdongkor/master/ver20220401/HangJeongDong_ver20220401.geojson') c = r.content seoul_geo = json.l..

01. 차원 축소(Dimension Reduction) 개요¶ 차원 축소는 매우 많은 피처로 구성된 다차원 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것입니다. 일반적으로 차원이 증가할수록 데이터 포인트 간의 거리가 기하급수적으로 멀어지게 되고, 희소(sparse)한 구조를 가지게 됩니다. 또한 수백 개 이상의 피처로 구성된 데이터 세트의 경우 상대적으로 적은 차원에서 학습된 모델보다 예측 신뢰도가 떨어집니다. 피처가 많을 경우 개별 피처간에 상관관계가 높을 가능성도 큽니다. 다중 공선성 문제는 모델의 예측 성능이 저하시킵니다. 차원 축소해 피처 수를 줄이면 더 직관적으로 데이터를 해석할 수 있다. 또한 차원 축소를 할 경우 학습 데이터의 크기가 줄어들어서 학습에 필요한 처리 능력..

01. 회귀 소개¶ 회귀 분석은 유전적 특성을 연구하던 영국의 통계학자 갈톤(Galton)이 수행한 연구에서 유래했다는 것이 일반론입니다. 회귀 분석은 데이터 값이 평균과 같은 일정한 값으로 돌아가려는 경향을 이용한 통계학 기법으로 일례로 사람의 키는 평균 키로 회귀하려는 경향을 가진다는 자연의 법칙입니다. 회귀는 여러 개의 독립변수와 한 개의 종속변수 간의 상관관계를 모델링하는 기법을 통칭합니다. 머신러닝 관점에서 독립변수는 피처에 해당되며 종속변수는 결정 값입니다. 즉, 머신러닝은 주어진 피처와 결정 값 데이터 기반에서 학습을 통해 최적의 회귀 계수를 찾아내는 것입니다. 회귀 계수가 선형이나 아니냐에 따라 선형 회귀와 비선형 회귀로 나눌 수 있으며 독립변수의 개수가 한 개인지 여러 개인지에 따라 단일..