본문 바로가기

IT 기술/보안

웹 해킹의 기초(정보수집)

반응형

웹 해킹에서 말하는 정보 수집이란 해킹을 하기 위해 웹 서버의 정보나 웹 응용 프로그램의 종류 등을 알아보는 것을 말합니다.

 

  • 정보수집 : 웹 스캔이나 포트 스캔 및 웹 사이트 접속하여 소스 코드 및 구조를 분석함으로써 어떠한 응용 프로그램과 웹 서버를 사용하는지, 웹 서버의 버전은 무엇인지를 수집합니다.
  • 취약점 분석 : 정보 수집 단계를 거쳐서 수집한 정보를 바탕으로 응용 프로그램 자체의 취약점 및 웹 서버의 취약점을 분석합니다.
  • 실제공격 : 취약점 분석을 통하여 이를 바탕으로 실제 공격을 시도합니다.
  • 뒤처리 : 침투에 성공하면 로그를 지우거나 스니퍼를 설치합니다. 때때로 드물긴 하지만 관리자에게 통보를 하거나 패치를 하거나 하기도 합니다.

 


* 백업 파일 탐색과 분석

웹 사이트 개발자들이 웹 사이트를 개발하고 난 후 웹 서버에 백업 파일이나 임시 파일들을 지우지 않은 채 방치하는 경우가 종종 있습니다. 이 경우 공격자의 입장에서는 일종의 득템과 같이 쾌재를 부르게 됩니다. 왜냐구요? 백업파일을 살펴보면 데이터베이스 접속 정보와 같은 중요한 정보를 얻을 수 있기 때문이지요. asp의 경우 흔히 login.asp 파일이 웹 서버에서 편집 프로그램이 자동으로 만드는 login.asp.bak과 같은 형태로 남는 것입니다. 따라서 웹 페이지 관리자는 이러한 백업 파일을 통한 정보유출을 막기위해 불필요한 파일들은 지워야 하며 웹 서버상에서 소스 편집 같은 작업을 해서는 안됩니다. 또 이러한 백업 파일뿐만 아니라 홈페이지 개발 과정에서 소스를 압축한 zip이나 tar 파일 등이 있을 수도 있는데 이 파일들도 반드시 지워야 하며 필요하다면 웹을 통해 다운로드할 수 없는 디렉토리에 보관해야 할 것입니다.

 

* 검색 엔진을 이용한 웹 분석

강력한 검색엔진을 사용한다면 다양한 자료를 수집할 수 있습니다. 특히 구글의 고급 검색 기능은 많은 편의성을 제공해 줍니다.

- 고급 검색 기능

  • site : 특정 도메인으로 지정한 사이트에서 검색하려는 문자열이 포함된 사이트를 찾음
  • filetype : 특정한 파일 타입에 한해서 검색하려는 문자가 들어 있는 사이트를 찾음
  • link : 링크로써 검색하려는 문자가 들어 있는 사이트를 찾음
  •  cache : 특정 검색어에 해당하는 캐시된 페이지를 보여줌
  •  intitle : 페이지의 제목에 검색하려는 문자가 들어 있는 사이트를 찾음
  • inurl : 페이지의 URL에 검색하려는 문자가 들어 있는 사이트를 찾음

 



* 검색 엔진의 검색을 피하는 방법


검색 엔진이 모든 파일을 검색할 수 있는 것은 아닙니다. 검색 엔진의 검색을 피하는 방법은 웹 서버의 홈 디렉토리에 robots.txt 파일을 만들면 구글 검색 엔진은 robots.txt에 있는 디렉토리들은 검색하지 않습니다. 
robots.txt 파일은 User-agent와 Disallow로 구성되는데 모든 검색 로봇의 검색을 막기 위해서는

User-agent :  *

와 같이 입력하거나 특정 검색엔진, 예를 들어 구글의 경우,

User-agent : googlebot

과 같이 입력하면 됩니다. 그 다음 로봇이 특정 파일이나 디렉토리를 검색하지 못하도록 Disallow를 설정하는데 dbconn.ini 파일을 검색하지 못하게 하거나 admin 디렉토리에 접근하지 못하게 하려면,

Disallow: dbconn.ini                Disallow : /admin/

과 같이 입력하면 됩니다.

위 그림은 실제로 미국 백악관에서 사용하는 robot.txt 파일의 내용입니다.

 

반응형

'IT 기술 > 보안' 카테고리의 다른 글

2012 RSA Conference 주요 이슈  (0) 2012.03.05
해킹이 의심된다면?  (0) 2012.01.18