
INTRO - REST 용어 - API 용어 - Django REST Framework 용어 - ModelForm vs ModelSerialzer 비교 # Restfull API server 기능 구현하기 - CBV(Class Based View)와 FBV(Function Based View) CRUD Control 비교 Create : 생성(POST) Read : 조회(GET) Update : 수정(PUT) Delete : 삭제(DELETE) 용어설명 Representational State Transfer (REST) : service-architecture.com 원문 번역 네트워크 리소스를 정의하고 처리하는 방법을 설명하는 일련의 원칙을 기반으로 하는 아키텍처 스타일입니다. 이러한 원칙은 2000..
INTRO web data를 수집, 가공하는 용어로 Parsing이라 정의하고 python 기초 마지막 편을 마치고자 한다. web crawling, web scraping 등 목적에 따라 정의가 상의하지만 parsing을 기초로 한다.(링크 : 용어설명) 대표적인 국내 Open API 제공 사이트 : 공공데이터포털 --> 로그인/key 생성 필요 프로그램언어나 플랫폼에 독립적인 .json 다루어 본다. 용어 parsing web page 내용에서 원하는 정보를 원하는 형태로 가공하여 표현 위키에서 'parsing'이나 'parser'을 검색하면 구문 분석으로 번역되어 표기 컴퓨터 과학에서 파싱((syntactic) parsing)은 일련의 문자열을 의미있는 토큰(token)으로 분해하고 이들로 이루어진..

Intro 매개변수 : 매개변수(媒介變數), 파라미터(parameter), 모수(母數)는 수학과 통계학에서 어떠한 시스템이나 함수의 특정한 성질을 나타내는 변수를 말한다 매개변수(프로그래밍) : 매개변수(영어: parameter 파라미터[*])란 변수의 특별한 한 종류로서, 함수 등과 같은 서브루틴의 인풋으로 제공되는 여러 데이터 중 하나를 가리키기 위해 사용된다. 여기서 서브루틴의 인풋으로 제공되는 여러 데이터들을 전달인자(argument) 라고 부른다. 보통 매개변수의 목록은 서브루틴의 정의 부분에 포함되며, 매번 서브루틴이 호출될 때 마다 해당 호출에서 사용된 전달인자들을 각각에 해당하는 매개변수에 대입시켜 준다. 매개변수와전달인자 : 종종 매개변수(parameter)와 전달인자(argument)는..
Intro Public IP Address : 공인아이피, 통신사가 제공하는 main 인터넷 주소 Private(Virtual) IP Address : 사설(가상)아이피, Public IP를 네트워크 중계 기능을 가지는 Router(or modem, 공유기)를 통해 분개하여 제공하는 주소 Requirements - Editor : sublime text3 - python 3.9.1 - requests 2.25.1 - BeautifulSoup4 4.9.3 Download $ pip install --upgrade pip $ pip install beautifulsoup4 $ pip install requests 1. terminal ip address 확인 : lo0, en0, awdl0, llw0, ut..
crawling 공개적인 자료 반복적인 수집 및 분리 web crawling의 준말로 위키에는 web crawler 용어로 정리 ko.wikipedia.org/wiki/Crawling 웹 크롤러(web crawler)는 조직적, 자동화된 방법으로 월드 와이드 웹을 탐색하는 컴퓨터 프로그램이다. 웹 크롤러가 하는 작업을 '웹 크롤링'(web crawling) 혹은 '스파이더링'(spidering)이라 부른다. 검색 엔진과 같은 여러 사이트에서는 데이터의 최신 상태 유지를 위해 웹 크롤링한다. 웹 크롤러는 대체로 방문한 사이트의 모든 페이지의 복사본을 생성하는 데 사용되며, 검색 엔진은 이렇게 생성된 페이지를 보다 빠른 검색을 위해 인덱싱한다. 또한 크롤러는 링크 체크나 HTML 코드 검증과 같은 웹 사이트..
- Total
- Today
- Yesterday
- ERP
- Model
- Pandas
- sublime text
- Python
- CSV
- 확진
- pyserial
- 코로나
- 라즈베리파이
- raspberrypi
- DAQ
- arduino
- vscode
- Templates
- github
- MacOS
- r
- COVID-19
- template
- DS18B20
- server
- Regression
- Raspberry Pi
- 자가격리
- git
- SSH
- analysis
- 코로나19
- Django
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |