스프린트/위클리페이퍼2024. 10. 23. 08:30[#12] 스프린트 DA 트랙 19주차 위클리 페이퍼(모델의 편향과 분산, K-폴드 교차 검증)

위클리 페이퍼는 현재 훈련받고 있는 코드잇 스프린트 데이터 애널리스트 트랙에서 매주마다 훈련생 스스로 프로그래밍 언어, 데이터분석, 통계, 머신러닝 등 특정 주제에 대하여 심화 학습을 할 수 있도록 제출하는 과제입니다.(매주 2~3가지 주제를 스스로 알아보고 학습하여 관련된 내용을 정리하여 후에 취업 활동 간에 경험할 수 있는 기술 면접을 대비함.)18주차에 이어 이번 19주차 위클리 페이퍼의 내용을 소개하겠습니다. 이번 12번째 위클리 페이퍼 주제는1. 모델 학습 시 발생할 수 있는 편향과 분산에 대해 설명하고, 두 개념의 관계에 대해 설명해 주세요.2. K-폴드 교차 검증에서 K의 값을 선택할 때 고려해야 할 점은 무엇인가요?1. 모델 학습 시 발생할 수 있는 편향과 분산에 대해 설명하고, 두 개념의..

[파이썬을 활용한 통계 개념 기초] 09. 음이항 분포(Negative binomial distribution)
통계/파이썬을 이용한 통계 기초2024. 10. 17. 08:30[파이썬을 활용한 통계 개념 기초] 09. 음이항 분포(Negative binomial distribution)

음이항 분포(Negative binomial distribution) 음이항 분포(Negative Binomial Distribution)의 개념음이항 분포는 이항 분포의 확장된 개념으로, 특정한 사건(성공)이 r번 일어날 때까지 실패가 몇 번 일어나는지에 대한 확률 분포입니다. 이 분포는 베르누이 시행의 반복으로 이루어집니다. 주요 개념이항 분포(Binomial Distribution): 성공/실패 두 가지 결과만 있는 베르누이 시행을 n번 반복했을 때, r번 성공할 확률을 나타냅니다. 시행 횟수 n은 고정되어 있습니다.음이항 분포: r번 성공할 때까지 시행되는 베르누이 시행의 실패 횟수에 대한 분포를 나타냅니다. 이때, 성공 횟수 r은 고정되어 있지만, 시행 횟수 n은 고정되지 않습니다.수식음이항 분..

스프린트/위클리페이퍼2024. 10. 16. 08:30[#11] 스프린트 DA 트랙 18주차 위클리 페이퍼(지도 학습과 비지도 학습, 손실 함수)

위클리 페이퍼는 현재 훈련받고 있는 코드잇 스프린트 데이터 애널리스트 트랙에서 매주마다 훈련생 스스로 프로그래밍 언어, 데이터분석, 통계, 머신러닝 등 특정 주제에 대하여 심화 학습을 할 수 있도록 제출하는 과제입니다.(매주 2~3가지 주제를 스스로 알아보고 학습하여 관련된 내용을 정리하여 후에 취업 활동 간에 경험할 수 있는 기술 면접을 대비함.)17주차에 이어 이번 18주차 위클리 페이퍼의 내용을 소개하겠습니다. 이번 11번째 위클리 페이퍼 주제는1. 지도 학습과 비지도 학습의 차이는 무엇인가요?2. 손실 함수(loss function)란 무엇이며, 왜 중요한가요?1. 지도 학습과 비지도 학습의 차이는 무엇인가요?기계학습의 개념 기계 학습의 정의:기계 학습은 데이터를 사용해 컴퓨터가 명시적인 프로그래..

300x250
image