
Intro curve fitting : 커브피팅, 곡선적합, 곡선근사, 곡선피팅, .... - polynomial regression : 다항식 회귀 - polynomial interpolation : 다항식 보간 curve fitting은 데이터 근사에 사용된다. 오차를 가지는 데이터의 통계적 근사를 regression, 데이터 포인트를 통과하는 곡선을 수치적으로 나타내는 것을 interpolation이라 간단하게 구분할 수 있다. regression, 즉 회귀의 경우는 통계적 추정에 따라 회귀 적합도를 나타내는 R-square(결정계수)이라는 총변동합의 비율로 근사정도를 판단한다. 총 2개의 포스트로 구성되어있다. (1) polynomial regression : scipy, numpy (2) pol..

Intro curve fitting : 커브피팅, 곡선적합, 곡선근사, 곡선피팅, .... - polynomial regression : 다항식 회귀 - polynomial interpolation : 다항식 보간 curve fitting은 데이터 근사에 사용된다. 오차를 가지는 데이터의 통계적 근사를 regression, 데이터 포인트를 통과하는 곡선을 수치적으로 나타내는 것을 interpolation이라 간단하게 구분할 수 있다. regression, 즉 회귀의 경우는 통계적 추정에 따라 회귀 적합도를 나타내는 R-square(결정계수)이라는 총변동합의 비율로 근사정도를 판단한다. 총 2개의 포스트로 구성되어있다. (1) polynomial regression : scipy, numpy (2) pol..

Requirements - Editor : VScode - python 3.10 - requests 2.28.1 : builtin function - BeautifulSoup4 4.11.1 : pip3 install 1. 공공데이터포탈 회원가입 및 데이터 활용신청 web site : data.go.kr 검색어 굴뚝 데이터활용신청하기 오픈 API : 한국환경공단 굴뚝자동측정기기 측정결과 활용신청 마이페이지 ... 아래 인증키 생성 code 작성에 필요한 요청변수 및 출력결과 예시 2. python code # -*- coding: utf-8 -*- # python3의 경우 삭제 from urllib.parse import urlencode, unquote import requests import pprin..
INTRO macOS 파일이름 utf-8 encoding macOS 파일이름 한글 자모분리 해결 : nomalize 1. chardet 설치 : 문자열 인식 라이브러리 $ pip install --upgrade pip $ pip install chardet 2. utf-8 encoding & 한글 자소분리 normalize filename_encoding_korean_normalize.py # -*- coding: utf-8 -*- import os import chardet from unicodedata import normalize import shutil fpath = "./test_files" wpath = "./test_output" flists = os.listdir(fpath) print(f..

Intro 매개변수 : 매개변수(媒介變數), 파라미터(parameter), 모수(母數)는 수학과 통계학에서 어떠한 시스템이나 함수의 특정한 성질을 나타내는 변수를 말한다 매개변수(프로그래밍) : 매개변수(영어: parameter 파라미터[*])란 변수의 특별한 한 종류로서, 함수 등과 같은 서브루틴의 인풋으로 제공되는 여러 데이터 중 하나를 가리키기 위해 사용된다. 여기서 서브루틴의 인풋으로 제공되는 여러 데이터들을 전달인자(argument) 라고 부른다. 보통 매개변수의 목록은 서브루틴의 정의 부분에 포함되며, 매번 서브루틴이 호출될 때 마다 해당 호출에서 사용된 전달인자들을 각각에 해당하는 매개변수에 대입시켜 준다. 매개변수와전달인자 : 종종 매개변수(parameter)와 전달인자(argument)는..
Intro Public IP Address : 공인아이피, 통신사가 제공하는 main 인터넷 주소 Private(Virtual) IP Address : 사설(가상)아이피, Public IP를 네트워크 중계 기능을 가지는 Router(or modem, 공유기)를 통해 분개하여 제공하는 주소 Requirements - Editor : sublime text3 - python 3.9.1 - requests 2.25.1 - BeautifulSoup4 4.9.3 Download $ pip install --upgrade pip $ pip install beautifulsoup4 $ pip install requests 1. terminal ip address 확인 : lo0, en0, awdl0, llw0, ut..
crawling 공개적인 자료 반복적인 수집 및 분리 web crawling의 준말로 위키에는 web crawler 용어로 정리 ko.wikipedia.org/wiki/Crawling 웹 크롤러(web crawler)는 조직적, 자동화된 방법으로 월드 와이드 웹을 탐색하는 컴퓨터 프로그램이다. 웹 크롤러가 하는 작업을 '웹 크롤링'(web crawling) 혹은 '스파이더링'(spidering)이라 부른다. 검색 엔진과 같은 여러 사이트에서는 데이터의 최신 상태 유지를 위해 웹 크롤링한다. 웹 크롤러는 대체로 방문한 사이트의 모든 페이지의 복사본을 생성하는 데 사용되며, 검색 엔진은 이렇게 생성된 페이지를 보다 빠른 검색을 위해 인덱싱한다. 또한 크롤러는 링크 체크나 HTML 코드 검증과 같은 웹 사이트..
1. class 생성 : Naming public # public class Naming: def __init__(self,head,tail): self.head = head self.tail = tail def get_name(self,head_name,tail_name): self.head = head_name self.tail = tail_name def get_info(self): print(self.head, self.tail) def __del__(self): print('Name object is deleted') # Use class object = Naming(head,tail) # Use delete del object protected : single underscore # prote..
- Total
- Today
- Yesterday
- COVID-19
- analysis
- pyserial
- DAQ
- vscode
- 코로나19
- MacOS
- 라즈베리파이
- github
- git
- Templates
- server
- SSH
- 자가격리
- sublime text
- 코로나
- r
- template
- Python
- Regression
- arduino
- Pandas
- 확진
- DS18B20
- raspberrypi
- CSV
- Raspberry Pi
- Model
- ERP
- Django
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |