분류 전체보기

Python Data Type and Operations¶ In [1]: import warnings warnings.filterwarnings('ignore') I. Python Function¶ 1) 함수 실행¶ print( ) 실행 In [2]: print('Hello World') Hello World 매개변수(Parameter) 및 인자/인수(Argument) 지정 In [3]: print('Hello World', end = '\t') Hello World In [4]: print('Hello', 'World', sep = '-') Hello-World 내장 매뉴얼 In [5]: help(print) Help on built-in function print in module builtins: ..
1. 프로젝트 개요 대도시의 인구 과밀집으로 인한 안전성 문제가 날로 심각해지면서, 이를 분산 시키기 위한 여러 가지 정책과 인프라가 필요한 실정이다. 그러나 이에 관한 낮은 관심도와 사후처리와 같은 안일한 대처가 이태원 참사 같은 안타까운 안전 사고를 낳았다고 생각한다. 이번 글은 그 중에서도 시민들이 많이 이용하는 지하철이라는 테마에서 혼잡도에 따른 위험성을 알리고자 하는 프로젝트를 기획하였다. 물론 지하철 혼잡도를 제공해주는 모바일 앱이 존재하는 것으로 안다. 하지만 현재 서비스가 중지 되었거나 일부 호선의 열차만 제공되는 실정이다. 또한 6월 부터 CCTV를 이용한 승하차 집계 및 혼잡도 계산 사업을 진행 중이라고 서울교통공사에서 밝힌 바가 있으나 현재까지 추가적으로 들리는 소식이 없는 상태이다...
이번 시간에는 자연현상을 시뮬레이션한 몇가지 예시들을 살펴봅시다. 1. 시공간 모델링 먼저 물리적인 시공간을 표현하는 대표적 방법 2가지, Eulerain approach와 Lagrangian approach를 알아보도록 하자. 1. Eulerian aproach 특정 위치(x)에 존재하는 관찰자 기준으로 측정을 하거나 사건을 기록 측정/사건이 일어난 시간이 t라고 할 때, C(x,t)와 같이 표현할 수 있음 필요성 또는 하드웨어 성능에 따라 시공간을 연속적인 변수로 두거나, 이산적인 구역 변수로 둘 수 있음 2. Lagrangian aproach 특정 위치(x)에 존재하는 물체 기준으로 시간에 따른 위치의 변화를 기록 시간 t에서의 물체의 위치를 x(t)와 같이 표현할 수 있음 물체를 기준으로 시공간을..
1. 개념 및 배경 여러가지 자연현상을 설명하기 위해, 컴퓨터 모델링을 통하여 실제와 비슷하게 자연현상을 구현 및 예측하는 일련의 과정. 자연현상 ----> 컴퓨터 모델 2. 적용 분야 예시 유체역학, 천문학, 화학, 기후학 등 예측 환경과학 (강흐름 모델링, 화산 폭발 모델링 등) 생물학 (세포조직 성장, 피부의 점패턴, 장기 구현) 생태계 조사 (여러 종들간의 경쟁, 평형 시스템, 전염병 진행) 금융, 사화과학, 교통 안전 실험, 보행자 움직임 게임 물리엔진 및 제조 산업 공정 최적화 등등... 3. 모델이란? 현실을 목적에 맞게 간소화하여 추상화한 형태나 구조 (주로 현실을 이해하고 설명하기 위한 목적) 효율적인 리소스 사용을 위해 우리가 시스템에 대해 궁금한 것들과 관련된 필수 요소들만 가지고 추..
이번 시간에는 Scrapy 프레임 워크를 사용하여 웹 크롤링을 해보자. Scrapy 프레임 워크는 Selenium이나 BeautifulSoup같이 method를 호출해서 접근하는 방식을 쓰는 라이브러리와 달리, Django 처럼 템플릿이나 패턴 규칙에 따라 파일을 작성 후 실행하는 방식으로 진행된다. 0. 환경 설정 임의의 폴더 생성 및 VS Code로 열기 > 터미널 실행 $ virtualenv venv 가상환경 생성 $ source venv/Scripts/activate 가상환경 실행 (venv) $ pip install scrapy 가상환경에 Scrapy 설치 1. 프로젝트 실행 (venv) $ scrapy startproject Scrapy_tutorial ‘Scrapy_tutorial’ 프로젝트..
이번 시간엔 Selenium대신 BeautifulSoup를 활용하여 크롤링을 진행해보자. 이전 글- Selenium을 활용한 웹 크롤링 Web Crawling (with Selenium) (2) 이번에는 지난 시간에 이어 Selenium을 활용하여 크롤링 코드를 만들어 보자. 가상환경에서 jupyter lab을 실행하고, ipynb을 작성한다. 필자는 지난 시간에 만들어 준 crawling 폴더에서 실습을 진행한다 sim-ds.tistory.com BeautifulSoup는 웹에서 응답하는 여러 방식들 (HTML, XML, JSON 등)을 수프객체로 만들어서 추출하기 쉽게 만들어주는 라이브러리이다. 0. 패키지 설치 저번 시간에 이어 Python 가상환경에 필요한 추가 패키지를 설치해주자 requirem..
이번에는 지난 시간에 이어 Selenium을 활용하여 크롤링 코드를 만들어 보자. 가상환경에서 jupyter lab을 실행하고, ipynb을 작성한다. 필자는 지난 시간에 만들어 준 crawling 폴더에서 실습을 진행한다. Web Crawling (with Selenium) (1) Selenium은 간단하게 일회성으로 웹크롤링하기 좋은 패키지이다. (다회성이 아닌 이유: 코드 유지-보수가 힘들기 때문) 이번 시간에는 Webdriver manager와 Selenium을 활용해 웹사이트에 접속하는 것을 sim-ds.tistory.com 1. 구글 이미지 다운로드 ‘Selenium.ipynb’ 파일을 생성한 뒤, 먼저 아래 코드를 작성한다. from selenium import webdriver from s..
simds
'분류 전체보기' 카테고리의 글 목록 (4 Page)