프로그램

제목 주관 대상 비고
실무자를 위한 ESG 가이드 과정 한경아카데미 민간 및 공강기관 ESG 관련 업무 담당자
기타 ESG 경영 관련 분야 관심 있는 분
주2회, 3주
ESG 지속가능경영보고서 작성 실무 한국생산성본부 ESG, 지속가능경영 및 기업사회공헌 실무자/관리자 2일, 16시간
ESG 인사이트 확보 
미래 혁신을 위한 퓨터 디자인씽킹 (온라인)
한국생산성본부 미래 리터러시 역량 향상하고자 하는 개인 및 실무자
ESG, Digital Transformation 관련 인사이트를 얻고자하는 실무자
2일, 14시간
ESG교육과정 이노소셜랩
유승권 이노소셜랩 이사
(한양대 경영학부 겸임교수)
기업 CSR, ESG, 지속가능경영 실무자  

 

강사

강사명 소속 토픽 비고
윤순진 서울대 환경대학원 기후환경 위기시대에 기업의 도전과 기회 환경부 지속가능발전위원장
재혁 고려대 경영학과 ESG와 지속가능 전략  
김종대 인하다 지속가능경영대학원 ESG가 국가의 미래를 결정한다.  
오형나 경희대 국제학과 2050 탄소중립시대 ESG 글로벌 동향 그린뉴딜분과 전문위원
이유진 국무총리 그린뉴딜특별보좌관(녹색전환연구소 연구원) 2050 탄소중립 정부 정책과 ESG 연계 방안  
사이먼 스미스 주한 영국 대사 기후 위기시대 영국 정부의 역할과 그린 파이낸스  
윤덕찬 지속가능발전소 대표 AI로 실시간 기업별 ESG 분석
ESG 평가 기준 원칙
 
이원일 지속가능발전소 의장 기업지배구조 개혁 방안  
임대웅 유엔환경계획 금융이니셔티브(UNEP FI) 한국 대표 ESG 법제화와 스튜어드십 코드  
임성택 법무법인 지평 변호사 ESG 도입과 과제  
조남진 딜로이트안진회계법인 파트너 실제ESG 컨설팅 경험 바탕으로 한 기업별 대응 전략 소개  
원종혁 국민연금 기금운용위 투자정책전문위원장 국민연금의 ESG 투자 방향과 원칙  
나석권 SK사회적가치연구위원장 SK의 ESG 추진 현황과 글로벌 기업들의 ESG 현황  
최영권 우리자산운영 대표 자산운영 업계의 ESG 책임 투자  
문두철 연세대 경영전문대학원   부원장
안드레스 기랄 연세대 경영대학   부학장
윤용희 법무법인 율촌   변호사
최준영 법무법인 율촌   전문위원
김정훈 IBS 컨설팅   수석연구위원

도서

제목 저자 출판사 링크
ESG 개념부터 실무까지 K-기업 서바이벌 플랜 한경비즈니스 전문기자 17명 한국경제신문 https://www.hankyung.com/esg/

 

온라인영상

제목 채널 스피커 링크 비고
ESG가 대세가 된 이유는?
ESG 비즈니스 리뷰 이윤정 편
EBS 비즈니스 리뷰  이윤정
환경전문변호사
https://www.youtube.com/watch?v=fUuWfgOXvr4  
ESG 시대, 기업은 무엇을
준비해야하는가
삼정KPMG 이동석 전무 https://www.youtube.com/watch?v=7v1436SxZL0 컨설팅 홍보
ESG 열풍의 실체 탐사기획
(MBC)
곽승규 기자 https://www.youtube.com/watch?v=MtqKeojZWPQ  
기후위기 시대, 경제와 투자전략도 이렇게 바뀌어야 합니다 세바시 강연 슈카 https://www.youtube.com/watch?v=svQsJkCdvLs  
(현대자동차광고)        

 

SK그룹 SUNI

스피커 스피커 소속 토픽 비고
애스워드 다모다 네러티브 앤 넘버스 저자 SK 임직원 대상 영상 글로벌 석학 협업 콘텐츠
숀콜 하버드 경영대학원 교수 사회적 가치, ESG 케이스 글로벌 석학 협업 콘텐츠
염재호 전 고려대 총장 미래 한국의 상상 디자인 SK(주) 이사회 의장
김용학 전 연세대 총장 대변환기 기업의 선도적인 사회적 역할 SK텔레콤 이사회 의장
신창환 성균관대 전자전기공학부 교수 반도체산업의 발전방향 SK하이닉스 사외이사

 

반응형


디지털 교육 설계를 위해 디지털 관련 개념을 이해해보기로 한다 ㅋㅋㅋㅋㅋㅋㅋ

디지털이라니 좋지만 싫을 것 같다. 싫지만 좋을거야 ㅠ-ㅠ 


※ 학습 노트

학습 날짜

 2020년 1월  

학습 사이트 

 Edwith

과정 제목

 3분에 익히는 머신러닝의 기본 원리

학습 시간

 72강/941분

의견

 - 짧은 영상 3개로 개념적인 설명만 제공

 - 참고자료로 영상이 1-2개씩 추가되어있음

 - 추가된 영상은 (내 기준) 갑자기 어려워지기도 하고 사운드가 안정적이지 않아서 듣기 힘들지만,
   어차피 용어와 개념에 익숙해지려면 이것저것 여러번 들어야겠다는 생각에 1.5배속으로 1회 시청하였다

 - 추가 영상 중 [리얼밸리 EP05] 머신러닝, 딥러닝 초간단 설명 추천!!! 

   개인적으로 머신러닝의 상세 내용보다는 기본 개념과 활용이 궁금했던터라 요정도가 딱 좋았을 수준 ㅎㅎ

 - 마지막 추가 영상까지 보고 느낀바는,
   edwith강좌를 개인 유튜브 채널, 블로그, meet-up 홍보용으로 활용한 것이 아닐까,,,싶었다. 뭐, why not ㅋ

 학습 모듈

 어려운 머신러닝, 쉽게 설명해드려요

 머신러닝을 실전에 적용하려면?

 딥러닝의 원리를 알아봅니다


어려운 머신러닝, 쉽게 설명해드려요

* 머신러닝이란 : 만들고 싶은 목표가 있고, 만드는 방법을 모르는 상황에서

                      해결 방법을 사람이 제시하는 것이 아니라 기계가 직접 시도하는 것을 반복한 후 적합한 방법을 만들도록 하는 기술

* 머신러닝 3요소 : 1) 경험 2) 성능지표 3) 작업목표 >> 3요소를 반복하며 정답에 가까워지는 것 

머신러닝이 인공지능의 핵심 기술인 이유

  - 인간이 지능을 재현하려는 인공지능은 방법은 모르지만 결과를 알고 있음

프로그래밍과 머신러닝의 차이

  - 기존 컴퓨터는 프로그래밍을 통해 일일이 방법 하나하나를 코딩해줌

  - 머신러닝은 컴퓨터 스스로 데이터를 학습해서 결과물을 만들어냄 

* 소프트웨어 1.0 vs 소프트웨어 2.0

- 사람이 프로그래밍을 해주는 소프트웨어 1.0 

- 기계 스스로 데이터를 통해 점점 발전하는, 소프트웨어 2.0 



머신러닝을 실전에 적용하려면?

머신러닝의 5단계

1단계 데이터 수집 (collecting)

2단계 데이터 전처리(preprocessing) : 각기 다른 크기와 구도를 가진 데이터를 최대한 같은 포멧을 갖추도록 처리하는 과정

         - 많은 경우 어떤 데이터가 어떤 결과물을 만드는지 패턴을 알려주는 과정인 레이블링(labeling)이 필요

3단계 피처추출(feature extraction): 작업 목표와 관계없는 불필요한 피처들을 버리고 중요도에 맞게 적절히 재구성하는 과정

        - 딥러닝: 데이터를 쏟아 부어 피처 추출을 머신러닝에 맡기고자 하는 기술

4단계 학습 (training)

5단계 검증(validation)



딥러닝의 원리를 알아봅니다 (Feat.CNN)

* 머신러닝 차원의 저주: 데이터의 차원 (피쳐)의 수가 늘어날수록 필요한 데이터의 량은 제곱으로 많아짐 

* 머신러닝 차원의 저주를 해결하기 위한 딥러닝 단계 

  CNN(Convolutional Neural Network) 이미지 필터링, 샘플링 반복 >> 저차원의 필터 생성 >> 여러 레이어 생성 >> 예측



[추가 영상] 머신러닝, 1시간으로 입문하기



* What is machine learning

  A computer program is said to learn from experience E with respect to come class of tasks T and performance measure P,

  if its performance at tasks in T, as measured by P, improved with experience T - T.Michel(1997)


(예시) 축구 게임 전술을 위한 프로그램

         T: 축구 게임에서 승리

         P: 골

         E: (x) 선수들의 움직임 (y) 평가

 

 Task

 Performance

 Experience

 분류 (classification) 

 0-1 loss function (에러가 발생했을 때 1의 에러를 더하는 방법)

 labeled data 

 회귀 (regression)

 L2 loss function (실제 값과 예측한 값의 거리의 합)

 labeled data

 군집 추출 (clustering)

 군집의 중심에서의 거리

 unlabeled data


* Machine learning process

1) Select a parametic / nonparametic model

2) Set a performance measurement including regularization term

3) Training data(optimizing parameters) until validation error increases

4) Evaluate the final performance using test set


* Regularization
   - 현재를 잘 설명하면서 미래를 예측할 수 있는 모델 필요 
   - train data가 너무 딱 맞게 학습되면 과적합(over fitting)됨 
   - 데이터를 구분하는 선이 지나치게 복합해지지 않도록 곡률을 줄여주는 역할을 하는 factor를 cost 함수에 추가하는 것이 regularization

...어려워지고 있다...먼소린지 모르겠고...(먼산)


Non parametric model: 모델없이 알고리즘을 자동으로 찾도록 하는것, 단점으로는 샘플이 훨씬 많이 필요함

  - Support Vector Machine: 분류 규칙을 찾는 기법

  - Gaussian Process Regression


마지막 몇 분은 아예 모르겠는 부분...ㅋ 그냥 꾸역꾸역 들어보았다 ㅋ



[추가 영상] 머신러닝/딥러닝 강의 7가지 추천

* 양, 난이도, 정성, 커리큘럼, 추천자의 마음을 기준으로 7개 강의를 추천함

* Coursera, Udacity, youtube, stanford 등



[추가 영상] [리얼밸리 EP05] 머신러닝, 딥러닝 초간단 설명 ★추천





일반적인 컴퓨터 사이언스사람이 찾아서 기계에 알려주는 것

  머신 러닝: 데이터를 많이 주고 최소한의 모델을 제공하여 기계한테 직접 찾게 하는 것

  딥러닝: 머신 러닝 방법 중 하나로, 모델 구조 중 사람의 뇌를 본딴 모델 구조를 사용

            - 데이터가 방대해지고
            - 인프라 스트럭처 레벨 기술 (GPU 사용, 빅데이터 처리 기술) 통해 인공신경망 훈련 가능해지며 두각을 드러내기 시작

- 현업에서는 최적화, 추천, 효율성을 높이는 문제에 굉장히 적용이 많이 되고 있음


 


[추가 영상] 어머니에게 딥러닝(CNN, RNN, GAN)을 설명해보자 // 포럼IT 딥토크 이벤트

* CNN: 이미지 인식 분야에서 사용하는 알고리즘

          이미지를 필터가 훑고 지나가면서 특징을 잡아냄

          텍스트 인식에도 적용하고 있음

* RNN: 시계열 데이터, 미래 예측, 음성인식에 사용

* GAN(generative adversarial network)



[추가 영상] [ART x TIPS] 인공지능 전문가, 스타트업을 만나다

* ...

반응형


영어 공부 겸 트랜드 공부를 위해 맥킨지 인사이트와 하버드 비즈니스 리뷰 위주로 아티클을 찾아읽곤 하는데, 

기왕이면 기록 & 정리하면서 보기로 한다.


주제는 한정하지 않으나 업무 관련한 것을 우선으로 찾아볼 예정이다. 

교육 업무를 하고 있으나, 교육을 주제로하는 아티클을 찾기보다는 교육해야할 컨텐츠를 주제로한 아티클을 찾을 것이다.

예를들어, 작년까지는 리더십 아티클을 주로 보았고, 올해는 마케팅 또는 디지털 아티클을 찾아볼 생각이다.


기록할 내용은 교육할 때 인용할만한 인사이트 또는 교육/학습과 관련하여 고민거리를 제공하는 내용이다.


하지만 늘 그렇듯, 하다보면 바뀔 수도 있음 ㅎㅎㅎ




Mckinsey Insight 

https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/what-comes-after-the-2020-digital-dash





 tumultuous 격동의

 usher 안내하다

 fraught 좋지 않은 것들이 가득한


 출처

 Mckinsey Insight 

 https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/digital-strategy-in-a-time-of-crisis

 제목

 Digital strategy in a time of crisis

 영어 표현

 The quickening is evident already across sectors and geographies

 The COVID-19 crisis seemingly provides a sudden glimpse into a future world

 inherent inertia 내재하는 타성 

 hinder 저해하다

 deeply grooved 깊게 홈이 있는

 fall short 모자라다

 cadence 억양

Learning for Learning 

 #위기가 학습 기회를 제공 

 * The ways they learn from and adjust to today’s crisis will deeply influence their performance in tomorrow’s changed world, providing the opportunity to retain greater agility as well as closer ties with customers, employees, and suppliers. 

 * A crisis demands boldness and learning


 #디지털 육성 프로그램 구성으로 고려 : Design Thinking + Tech (AI 등)

 * Organizations that make minor changes to the edges of their business model nearly always fall short of their goals. Tinkering leads to returns on investment below the cost of capital and to changes (and learning) that are too small to match the external pace of disruption. In particular, organizations rapidly adopting AI tools and algorithms, as well as design thinking, and using those to redefine their business at scale have been outperforming their peers.


 #학습 능력 중요

  Bold action and the ability to learn are highly interrelated. The real-time ability to learn during a crisis is in fact the one ingredient that can turbocharge your ability to scale quickly.

 At the broadest level, these include the prospect for real-time learning about where value is going in your markets and industry, the chance to learn and feed back quickly what’s working in your operations and your agile organizational approach, and the opportunity to learn where it is you’re more or less able to move quickly—which can help inform where you might need to buy a business rather than build one


 #네트워크 효과의 활용 방안 고민 필요

 Research indicates that people and organizations learn more quickly as a result of network effects. The more people or organizations that you add to a common solution space, in other words, the more quickly learning occurs and the faster performance improves. 



 출처

 Mckinsey Insight

 https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/how-six-companies-are-using-technology-and-data-to-transform-themselves 

 제목

 How six companies are using technology and data to transform themselves

 영어 표현

 unleashing a wave of innovation 촉발시키다

 on steroids 강력한, 끝내주는

 harness 활용하다, 동력화하다

 rejigger 변경하다, 재조정하다

 unearth 발굴하다

 set apart from 에서 구별하다

 pivot 회전하다

 exponential 기하급수적인

 status quo 현재의 상황

 pronged 가닥이 진, 갈래진

 percolate 스며들다

Learning for Learning 

 #행동 변화를 위해 필요한 시간: 평균 66일 

 * the popular magazine Psychology Today concluded that it takes an average of 66 days for a behavior
   to become automatic.

 

 #환경 변화: Virtual, Digital Centric, Agile 

 * The COVID-19 pandemic is a full-stop on business as usual and a launching pad for organizations
   to become
virtual, digital-centric, and agile

 * The crisis has forced every company into a massive experiment in how to be more nimble, flexible, and fast.


  #잘하고 있는 기업들의 특징

 * digital fast, ready to reinvent, all-in, data-driven decisions, customer followers


 #새로운 기술에 대한 reskilling training 필요 

Addressing its considerable reskilling needs—the majority of Tabang’s workers have no more than
a high school education—resulted in the development of a mobile app with popular gamification elements,
ensuring that employees would stay engaged and complete their training. 


 # Action 중요 

* " A learn-fast culture means we put things into action,” he says. “We don’t sit around thinking about it.”


반응형


※ 학습 노트

학습 날짜

 2020년 1월  

학습 사이트 

 인프런

과정 제목

 파이썬입문과 크롤링기초 부트캠프 (2020 업데이트) [쉽게! 견고한 자료까지!] 

학습 시간

 72강/941분

의견

 - 크롤링이 뜻대로 되지 않는 부분에 대한 팁을 얻기 위해 등록한 과정이기 때문에 

   스파르타 코딩 클럽에서 배운 것과 겹치는 부분은 스킵하고 필요한 부분부터 우선적으로 듣기로 함

 - 개념적인 것을 엄청 자세하게 설명해서 초보자(나)에게 좋음. 기존에 배운 것 복습 + 빈 곳을 채우는 느낌

 - 10~20분 단위로 micro하게 구성

 학습 모듈

 크롤링과 웹 기본 - 실전부분 




크롤링과 웹 기본__패턴으로 실습하며 익히기: HTML/CSS 이해를 바탕으로 크롤링하기

* 크롤링 패턴 코드

import requests
from bs4 import BeautifulSoup

res = requests.get('https://news.v.daum.net/v/20170615203441266')
soup = BeautifulSoup(res.content, 'html.parser')

mydata = soup.find_all('span','txt_info')
for item in mydata:
print (item.get_text())


*meta tag는 검색 엔진에 해당 페이지를 잘 검색할 수 있도록 쓰이는 경우가 많음

*해당 tag가 html 내에서 여러 군데 사용되고 있는 경우 class를 활용

*크롤링을 하고 싶은 부분이 class를 여러 개 사용 있는 경우,  class를 띄어쓰기 포함 그대로 사용

*mydata.get_text 또는 mydata.string 사용



크롤링과 웹 기본__패턴으로 실습하며 익히기: 실전 크롤링과 강력한 크롤링 기술 팁 

* 오픈 크롬 개발자 모드를 오픈 

   : 윈도우 Ctrl + Shift + i 또는 F12

* 원하는 영역 오른쪽 클릭한 후 copy > Copy outer html 복사 가능

* find()로 더 크게 감싸는 html 태그로 추출 후, 추출된 데이터에서 find_all()로 원하는 부분을 추출

* 문자 전처리할 때: strip(), split() 함수 사용

* 리스트에 숫자 붙일 때

for index, title in enumerate(titles):
print(str(index+1)+'.', title.get_text().split()[0].string())



크롤링과 웹 기본__CSS selector 사용해서 크롤링하기

* select()안에 태그 또는 CSS class 이름 등을 넣으면 결과값은 리스트 형태로 반환됨

* 하위 태그는 스페이스로 구분

* 모든 단계의 태그를 다 적을 필요는 없지만, 바로 밑의 태그에 해당하는 부분을 추출하고 싶을 때는 ul > a  식으로 > 사용

* class 이름을 사용하고 싶을 때에는 .사용, class 여러 개일때도 .사용하여 이어줌  

  id 는 # 사용 

* find()/select()로 가져온 객체는 find()/select() 모두 교차 사용 가능



바로 실전 크롤링해보기: 네이버 쇼핑 사이트 크롤링하기

#네이버쇼핑 best100 인기검색어

import requests
from bs4 import BeautifulSoup

res = requests.get('https://search.shopping.naver.com/best100v2/main.nhn')
soup = BeautifulSoup(res.content, 'html.parser')

items = soup.select('#popular_srch_lst > li > span.txt > a')
for item in items:
print(item.get_text())


#네이버쇼핑 특정 카테고리 상품 제목 

import requests
from bs4 import BeautifulSoup

res = requests.get('https://search.shopping.naver.com/search/all?frm=NVBT100&origQuery=%EB%8B%A4%EC%9D%B4%EC%96%B4%EB%A6%AC&pagingIndex=2&pagingSize=40&productSet
=total&query=%EB%8B%A4%EC%9D%B4%EC%96%B4%EB%A6%AC&sort=rel&timestamp=&viewType=thumb')
soup = BeautifulSoup(res.content, 'html.parser')

items = soup.select('div.imgList_title__3yJlT > a')

for item in items: print(item.get_text()) 


#네이버증권 인기검색종목

import requests
from bs4 import BeautifulSoup

res = requests.get('https://finance.naver.com/sise/')
soup = BeautifulSoup(res.content, 'html.parser')

items = soup.select('#popularItemList > li > a')
for item in items:
print(item.get_text())



또다른 크롤링 기술, urllib 라이브러리 사용법 이해

* 기존에는 urllib+bs4 세트로 많이 사용하였는데, 최근에는 requests + bs4 세트를 많이 사용

  기존 코드 중 일부가 urllib 사용하는 경우가 있으며 인코딩 처리가 다름

* requests 라이버리를 사용해서 크롤링 진행하고, 문제가 있는 경우만 urllib 시도

from urllib.request import urlopen #urllib request class에 들어있는 urlopen 함수만 필요
from bs4 import BeautifulSoup

res = urlopen('https://davelee-fun.github.io/')
soup = BeautifulSoup(res, 'html.parser')

items = soup.select('h4.card-text')
for item in items:
print(item.get_text().strip())



여러 페이지 한번에 크롤링하는 기법

* 주소에있는 페이지 번호를 활용하여 for 구문 사용

import requests
from bs4 import BeautifulSoup

for page_num in range(10):
if page_num == 0:
res = requests.get('https://davelee-fun.github.io/')
else:
res = requests.get('https://davelee-fun.github.io/page' + str(page_num + 1))
soup = BeautifulSoup(res.content, 'html.parser')

data = soup.select('h4.card-text')
for item in data:
print(item.get_text().strip())



크롤링해서 엑셀 파일로 데이터 저장하기

* openpyxl 라이브러리 활용

* 함수 설정

import openpyxl

def write_excel_template(filename,sheetname,listdata):
excel_file = openpyxl.Workbook() #엑셀 파일 오픈
excel_sheet = excel_file.active #엑셀 시트 선택

if sheetname !='': #시트이름이 없으면 넘어가기
excel_sheet.tile = sheetname

for item in listdata:
excel_sheet.append(item)
excel_file.save(filename)
excel_file.close()


* 크롤링해서 저장하기

import requests
from bs4 import BeautifulSoup

product_lists = list()

for page_num in range(10):
if page_num == 0:
res = requests.get('https://davelee-fun.github.io/')
else:
res = requests.get('https://davelee-fun.github.io/page'+str(page_num+1))
soup = BeautifulSoup(res.content,'html.parser')

data=soup.select('div.card')
for item in data:
product_name = item.select_one('div.card-body h4.card-text')
product_date = item.select_one('div.wrapfooter span.post-date')
product_info = [product_name.get_text().strip(),product_date.get_text()]
product_lists.append(product_info)

write_excel_template('tmp.xlsx','상품정보',product_lists)


* 엑셀파일 불러오기

for item in excel_sheet.rows:
print (item[0].value, item[1].value) #셀에 들어있는 값을 가져오기 위해 .value를 붙여줌


excel_file.close()




반응형


※ 학습 노트

학습 사이트 

 인프런

과정 제목

 파이썬입문과 크롤링기초 부트캠프 (2020 업데이트) [쉽게! 견고한 자료까지!] 

학습 시간

 72강/941분

의견

 - 크롤링이 뜻대로 되지 않는 부분에 대한 팁을 얻기 위해 등록한 과정이기 때문에 

   스파르타 코딩 클럽에서 배운 것과 겹치는 부분은 스킵하고 필요한 부분부터 우선적으로 듣기로 함

 - 개념적인 것을 엄청 자세하게 설명해서 초보자(나)에게 좋음. 기존에 배운 것 복습 + 빈 곳을 채우는 느낌

 - 10~20분 단위로 micro하게 구성

 학습 모듈

 강의 준비

 파이썬과 프로그래밍 기초를 견고하게 쌓는 가장 좋은 방법 - skip

 파이썬 객체와 라이브러리 - skip

 크롤링과 웹 기본 



강의준비_데이터과학과 IT 영역에서의 파이썬과 크롤링 큰그림 이해하기

* 영역: 웹, 앱, 응용 프로그램, IoT, 인공지능

* 단계: 데이터 수집 - 저장 - 분석 - Visualization - 서비스 개발



강의준비_프로그래밍 언어 기초와 파이썬 이해

* 프로그래밍 언어: 인간이 컴퓨터와 소통할 수 있도록 컴퓨터가 이해할 수 있는 명령으로 프로그램을 작성할 수 있도록 만든 언어

  - 컴퓨터는 기계어 (0과 1로 된 이진수 형태로 CPU가 이해할 수 있는 코드)만 이해한다



강의준비_anaconda와 jupyter notebook 소개와 설치

* 아나콘다(anaconda) 확장 기능 + 컴파일러 프로그램까지 한 번에 설치할 수 있는 프로그램

  - 파이썬 기본(컴파일러), 주요라이버리, 주요툴(jupyter notebook포함)을 모아놓은 패키지

  - 컴파일러 고급 언어로 작성된 코드를 기계어로 변환하는 프로그램



크롤링과 웹 기본_패턴으로 실습하며 익히기: 크롤링 코드 패턴으로 이해하기

  #라이브러리 임포트

 import requests

 from bs4 import BeautifulSoup

 #웹페이지 가져오기

 res = requests.get('사이트주소')

 #웹페이지 파싱하기

 soup = BeautifulSoup(res.content, 'html.parser')

 #필요한 데이터 추출하기 

 mydata = soup.find('title')

 #추출데이터 활용하기

 print(mydata.get_text()) 


* 웹기본구조

- 네트워크를 통해 내 컴퓨터와 다른 컴퓨터를 연결하고 정보를 주고 받을 수 있음

- 어떤 컴퓨터에서 정보를 받아올지 지칭하는 주소가 IP주소

- IP 주소를 이름으로 표기한 것이 웹주소 

- 주소를 넣으면 html로 구성된 파일을 달라고 요청하고 html은 해당 정보를 웹브라우저 안에서 보여줌


* 파싱 문자열의 의미를 분석하는 것


* 데이터 추출

soup.find('html코드')

변수.get_text




HTML


크롤링과 웹 기본_크롤링을 위한 지식: 웹구조와 HTML 이해하기

* 웹페이지는 HTML, CSS, javascript로 표현

* HTML

   - HTML은 마크업 언어: 문서나 데이터의 구조를 표현하는 언어

   - HTML 언어 : 웹페이지를 만드는 언어

   - 꺽쇠 <>와 tab로 표현

* Sublime Text 3 프로그램: HTML 에디터


*HTML 기본구조

<!DOCTYPE html> 이 문서는 HTML 언어를 사용

 <html> 여기서부터 HTML 문서 시작

 <head> 문서 전체 정보 (제목 등)

 </head>

 <body> 실제 웹페이지 표현되는 내용

 </b> enter

 </body> 

 </html>


  <head>

 <title> 제목 </title> 웹페이지의 타이틀이라 본문에 표시되지 않지만 탭에서 확인 가능

 <meta charset="utf-8"> 글씨가 깨질 때 추가 

 </head>


*태그 속성

<태그 속성(속성 이름, 속성 값) 속성 속성>

- 속성과 속성 사이는 한 칸씩 띄어야함


*구조화된 태그 (테이블)

  <table border="1">

   <thead> 한 테이블의 타이틀(표 머리글)

      <tr>

          <th>1*1</th>

      <tr>

   </thead>

   <tbody> 본문 내용

      <tr>

          <td>1*1</td> 

      <tr>

  </tbody> 

 </table>



크롤링과 웹 기본_패턴으로 실습하며 익히기: HTML 이해를 바탕으로 크롤링하기

*속성을 가져오는 방법

soup.find('태그')

 

#예시

 data =soup.find('p', class_='cssstyle') #클래스가 cssstyle을 가져오는 것

 data =soup.find('p', attrs={class':'cssstyle') #속성과 속성값을 그대로 기입 / 속성 여러 개 나열 가능

 data =soup.find('p', 'cssstyle')

 data =soup.find('p', id='body') 


 datas =soup.find_all #전체 다 찾아주나 리스트 형태로 보여주기 때문에 for 구문써줘야함

 for find_data in find_datas:

      print (find_data.get_text())


* 크롤링에서 가장 많이 쓰는 속성은 class이고 css 언어와 관련


CSS


크롤링과 웹 기본_크롤링을 위한 지식: 웹구조와 CSS  이해하기

* HTML로 웹페이지 구조(내용)을 표현하고 CSS언어를 활용하여 디자인하는 것이 일반적

* CSS 언어 적용 방법 

  1) 적용할 태그에 style 속성으로 넣기

  2) HTML문서 <head>안에 <style>태그로 넣기

  3) HTML문서 <head>안에 CSS파일 링크하기

* css언어는 프로퍼티와 프로퍼티 값으로 이루어짐. 

* 프로퍼티 정의는 구글 검색하여 css tutorial 활용


* 적용 방법 별 예시

  1) 적용할 태그에 style 속성으로 넣기

<td style ="text-align:center; color:blue">

세미콜론으로 구분해서 프로퍼티와 값을 연속으로 사용 가능. 띄어쓰기 해도 되고 안해도 됨


  2) HTML문서 <head>안에 <style>태그로 넣기

<style type="text/css">

td{

    font-size: 2em; 화면에서 디폴트로 보여주는 폰트의 2배

    font-family: Gulim;

    text-align: center;

}

</style>


 3) HTML문서 <head>안에 CSS파일 링크하기  매 페이지마다 head를 쓸 필요 없이 css 파일을 만들어놓고 페이지에 링크 가능

통상 css라는 확장자를 사용하여 파일 저장

#특정 태그에 css 설정 적용할 때

<link rel="stylesheet" type="text/css" href="css/style.css"> css파일이 들어있는 폴더와 파일명 


#.이름을 써서 별도의 css를 설정하여 내가 원하는 곳에 적용하려고 할 때

#.highlight는 내가 설정한 이름이며, class라고 부름 

.highlight {

 font-size:3em; 

 text-align:right;

 color: blue;

 }


<td class="highlight"> #설정한 css를 사용하고 싶은 곳의 태그 안에 class로 표시

<td class=highlight> 


반응형

챙겨먹기

아침에 일어나서 음식 재료를 챙기고 씻고 썰고 하는 나의 동작과 소리가 영화 포레스트 느낌으로 산뜻하고 부지런한 기분을 주기는 하지만, 생각보다 시간이 소모되는 편이다. 한 번은 된장찌개를 끓이다가 먹을 시간이 없을 것 같아서 위층 친구에게 가져다줘야겠다 싶었는데, 그러기에도 시간이 밭아서 직접 가져가서 먹어달라고 하고 출근했다.

그래서 다음 날 아침밥을 챙겨먹어야지 싶으면 저녁에 미리 재료를 다듬어 놓기로했다. 

음식을 해먹으면서 의외였던 점은, 고기가 생각보다 빨리 상한다는 것과 야채가 생각보다 오래 간다는 것이다. 그래서 고기는 음식이 먹고 싶은 전 날 주문하는 편이고 야채는 상시 주문한다. 친구들은 무조건 냉동실에 넣는다고 하지만, 어쩐지 그러긴 싫단 말이야.

 

  

팬케익이 먹고 싶어서 메이플 시럽을 샀었는데, 마켓컬리에서 산 일본식 팬케익이 맛이 없어서 팬케익 가루와 시럽을 짱박아두고 있었다. 그런데 최근에 크로플을 해먹으면서 시럽을 다 비웠다...! 새로운 맛을 시도해보기 위해 이번에는 바닐라향의 시럽을 구입해봤는데, 이것도 맛있다 =)    

어째 업데이트 할 것이 챙겨먹기 밖에 없는 것일까 ㅎ-

반응형


 챙겨먹기  

*

마가 위에 좋다고 해서 먹는 방법을 검색해보니- 갈아 먹는 방법이 많았지만, 그 중 굳이 명란 무침을 찾아서 반찬으로 만들어 먹었다. 

아삭하면서도 끈적한, 신기한 느낌의 마를 채썰어 명란에 무치고 파를 썰어 얹은 후에 들기름이나 참기름을 뿌리면 끝. 

명란이 짜서 다른 양념은 전혀 하지 않았다. 자극적이지 않은데 밥 한 그릇 뚝딱이다.

돼지 고기 남은 것은 파와 함께 굴소스에 살짝 볶아줌

밥 반찬은 하나 또는 두 개여도 충분한 것 같다. 하나의 반찬에도 다양한 재료가 들어가는데. 옛날에는 왜 그렇게 반차 수를 따져서 몇 첩 반상이니 뭐니 했을까. 설거지 거리도 많아지는데....ㅠ 

영양제나 간식이 없어서...? ㅋ






 허브에 물주기  

베란다에 화분 5개를 두었다. 꾸준히 케어하는 것을 잘하지 못해서 걱정했는데, 생각보다 잘 자라주고 있다. 

새싹이 나고 가지가 뻗기도 하였다. 

아침에 일어나면 물을 챙겨 마시는데, 비운 통을 바로 채워서 화분에 물을 준다. 


친구들과 수다를 떨다가, 허브를 샀다는 말에 나도 링크를 보내달라고 하여 구입하였다.

바질, 루꼴라, 세이지, 고수를 포대에 심도록 구성된 키트. >>https://m.permeal.co.kr/goods/view?no=2633

구역을 나누고 이름을 붙일 수 있도록 이름표도 들어있는데 그냥...뿌렸다...; ㅋ

고수는 특히 건조한 것을 못 견뎌서 물을 자주 줘야한다고 한 쪽에 심기는 했지만,  

첫 잎이 나오는 것을 보고 무엇인지 모르겠어서 가지런히 심은 친구에게 물어봤다. 

가장 먼저 & 잘나오는 것은 루꼴라였다! 

바질이나 루꼴라는 샐러드나 피자, 스파게티 등 다른 음식을 해먹기 위해 설레이면서 심은 것이였는데,

막상 나온 것을 보니 귀엽고 애정이 가서 먹고 싶다는 생각이 들지는 않는다 ㅋ 물론 먹을거지만!



 차 마시기  


저녁에 커피를 마셔도 자는데 지장이 없었는데, 이제는 아닌가보다 ㅠ

커피 대신 차를 마시려고 노력하고 있다.






반응형


운동 도구 하나씩 도착

마사지볼, 발란스 쿠션, 땅콩모양 짐볼, 루프 밴드






  챙겨먹기  


* 아침에 과일이나 야채 위주로 챙겨먹으려고 하지만, 요즘 애정하는 크로플은 예외를 두기로 한다.

 





* 초록 & 빨강 조합을 좋아하지만, 재료가 초록이밖에 없어서 그대로 먹었는데 맛은 여전히 좋았다

  샐러리는 맛이 없다고 느껴져서 억지로 먹을 때가 있는데 레몬 & 소금 드레싱을 뿌려서 고기류(닭가슴살 포함!ㅋ) 와 먹으면 항상 맛있다. 






  반신욕  


* 러쉬 입욕제가 너무 비싸서 대체제를 찾으려고 했는데  이번에 구입한 피치 크럼블 버블룬, 킨키 부츠,  버터베어 모두 마음에 들어서 

간혹,,,,,,,, 플렉스할 때 사야지,,,,,라는 생각 

특히 킨키 부츠는 거품이 너무 잘나서 뭉게뭉게 구름 위에 있는 것 같아서 기분 좋았다


* 반신욕의 포인트는 상체 (손, 팔, 팔꿈치 모두모두 포함)를 물에 넣지 않는 것인듯! 책이나 핸드폰을 보려고 팔꿈치가 담궈질 때가 있는데, 신경써서 바깥으로 걸치고 있을 때 땀이 훨씬 빨리, 잘나고 개운한 것 같다.




반응형

+ Recent posts