본문 바로가기

반응형

컴퓨터/Web

(3)
robots.txt 정확히 알고 사용하기 / 무단 크롤링 불법? 합법? 1. robots.txt 란? 구글 robots.txt 파일을 사용하면 크롤러가 사이트에 요청할 수 있는 페이지/파일과 요청할 수 없는 페이지/파일을 검색엔진 크롤러에 알려 줄 수 있습니다. 이 파일은 주로 요청으로 인해 사이트가 오버로드되는 것을 방지하기 위해 사용하며,Google로부터 웹페이지를 숨기기 위한 메커니즘이 아닙니다.웹페이지가 Google에 표시되지 않도록 하려면noindex명령어를 사용하거나 비밀번호로 페이지를 보호해야 합니다. 출처:developers.google.com/search/docs/advanced/robots/intro?hl=ko 위키백과 로봇 배제 표준(robots exclusion standard),로봇 배제 프로토콜(robots exclusion protocol)은웹 사..
[해결방법] Error: A JNI error has occurred, please check your installation and try again 컴파일 설정된 SDK 버전과 실행하고 있는 자바버전이 다를 경우에 발생하는 에러 입니다. File - project structure 탭에서 Project SKD를 설정할 버전으로 바꿔주어 해결했습니다.
[해결방법] Could not target platform: 'Java SE 11' using tool chain: 'JDK 8 (1.8)'. 원래는 eclipse를 java JDK 8 버전으로 사용했었다. 많은 개발자들이 eclipse에서 IntelliJ로 넘어가는 추세라고 하길래, IntelliJ를 사용해보았다. 스프링 공부와 함께 IntelliJ에 익숙해지기 위해 IntelliJ를 처음 설치하고 JDK 11 버전으로 실행하였다. 스프링부트를 이용하여 프로젝트를 생성하였고 빌드툴은 gradle를 사용하였다. 처음 생성된 Application을 Run 시켜보니 아래와 같은 에러가 발생 했다. Execution failed for task ':compileJava'. > Could not target platform: 'Java SE 11' using tool chain: 'JDK 8 (1.8)'. JDK의 버전이 문제라고 생각하여 처음에는 j..

반응형