일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 동명이인찾기
- 폴더조사
- 패치분할
- STL
- GIS
- docker
- 도커
- geopandas
- 알고리즘
- pyvista
- 3d
- 그리드분할
- 좌표거리
- 컨테이너
- 이미지빌드
- python최단거리
- graph
- 3d데이터
- Python
- Set
- MESH
- 데이터입수
- 도커 레이어
- 지하철역좌표
- GCN
- geojson
- 파이썬
- 귀여운고래
- osmnx
- GNN
- Today
- Total
목록코린이 (49)
이것저것 기록
근래에 카카오 지도 API를 사용해야할 일이 있었다. 사실 네이버 API든 카카오 API든 상관 없었는데, 네이버 API는 서비스 등록 환경을 등록해야해서 url이나 앱 주소를 넣어야 했다. 난 그냥 파이썬에서 API 기능 몇 개만 써보고 싶었는데...ㅠㅠ 아무리 찾아도 서비스 등록 환경 없이 파이썬에서 네이버 API를 사용하는 방법에 대한 글을 찾을 수 없어서, 그냥 포기하고 카카오 API로 갈아 탔다 ㅋㅋㅋ 그래서 오늘은 카카오 지도 API를 사용해서 주소 및 행정구역코드 정보를 받아오는 방법에 대해 기록해 두려고 한다. 이 포스팅에 올린 코드는 깃헙에 샘플 파일과 함께 올려두었으니 참고! github.com/henewsuh/KAKAO-map-API 1. 필요한 라이브러리 import pandas a..
1. 사실 아무도 안 쓸 것 같은데 왜 포스팅 하나요? 이 포스팅은, 사실 얼마나 많은 사람들이 필요로 하는 코드일지는 잘 모르겠다. 다만 내가 속한 연구실에서 하던 프로젝트를 위해 짰던 코드인데, 꽤나 고생을 해서 이렇게라도 기록을 남기고 싶어서 포스트로 만들기로 결정했다. 내가 맡은 프로젝트는 건물동 별로 벽, 창문, 문, 엘리베이터, 방, 계단 등 다양한 형태의 건축 요소가 .shp파일의 결과물로 떨어지게 돼 있다. 그런데 이 결과물이 잘 뽑혔는지, 어쩐지 확인하려면 일일이 QGIS를 열어서 해당 .shp파일을 드롭한 다음에 확인해야 했기 때문에 이 프로세스가 꽤나 복잡하고 귀찮았다. 결과를 수없이 여러 번 확인하고, 코드를 수정하고, 또 결과를 확인하고, 코드를 수정해야하는데, 결과를 확인할 때마..
이전 포스팅과 이어지는 내용! 이전 포스팅에서는 특정 좌표를 지오코딩 한 후에 인근의 POI 데이터를 받아서, 어떤 종류의 POI가 얼마나 있는지 확인하는 task를 진행했다. 이번에는 POI 데이터를 추출하고 활용하는 방법을 다뤄보려고 한다. 1. 필요한 라이브러리 불러오기 import networkx as nx from geopy.geocoders import Nominatim import osmnx as ox import shapely import pandas as pd from shapely import geometry from descartes.patch import PolygonPatch from shapely.geometry import LineString 2. 지난 코드 geolocoder..
나무위키 정의: 지오코딩(Geocoding)은 고유명칭(주소나 산,호수의 이름등)을 가지고 위도와 경도의 좌표값를 얻는 것을 말한다. 이처럼 고유명칭이나 개별이름등을 가지고 검색하는것과는 달리 반대로 위도와 경도값으로부터 고유명칭을 얻는것은 리버스 지오코딩(reverse Geocoding)이된다. 도로명 주소와 같은 일반적인 주소는 OSM에 적용해서 데이터를 얻기 상당히 까다롭다. 반면에 (x, y) 좌표로 위치를 표현하게 되면 OSM이나 구글맵과 같은 기존의 맵 서비스들에서 더욱 정확한 위치를 찾을 수 있다. 어쨌든, 도로명 주소를 지오코딩하는 방법에 대해 이것저것 찾아봤는데... 주로 네이버, 카카오, 구글과 같은 지도 API의 지오코딩 기능을 빌려다(?) 쓰는 것 같았다. 원래는 네이버 지도 API..
자료를 찾다가 캐글에서 꽤나 괜찮은 데이터를 발견했다. 위의 엑셀 파일을 열어보면 다음과 같다. 넷플릭스의 영화들에 대한 정보인데, 영화 제목, 감동, 제작국가, 상영연도, 러닝타임, 간단한 소개 등이 정리 되어 있는 엑셀이다. 이 정보들을 가지고 어떻게 추천 시스템을 만들 수 있을까, Academic/Adar 인덱스가 생각났다. Academic/Adar는 그래프 이론에서 두 노드 간의 인접성을 정량화할 때 사용하는 것인데, 두 노드가 얼마나 가까운지 구하려면 두 노드가 서로 공유하고 있는 이웃의 개수를 살펴보면 된다는 것이다. 위의 식은 두 노드 x, y 에 대해서 두 노드가 가지고 있는 adjacent 노드들의 세트를 반환하는 함수이다. 쨌든 결론은! Academic/Adar와 클러스터링 기법을 사용..