Wikitravel:사용 계약

Wikitravel
이동: 둘러보기, 찾기

위키트래벌을 구성하는 작업의 본체 -- 글, 그림 등. -- 은 누구에게난 사용하는 것이 자유이다. 그들이 우리들의 카필레프트에 따르면 그러하다. 우리는 다른 포멧으로 가용한 전체 위키트래벌 자료기지를 만드는 작업을 하고 있다. 그래서 다른 곳으로 이 정보를 복사하고 싶으시면 하실수 있습니다.

wikitravel.org 웹서버는 위키 소프트웨어를 탑재하고 있으며 여하는 위키여행자의 노력을 좌표설정하는데 사용되는 협력의 도구이다. 그것은 위키트래벌 기여자의 전체 커뮤니티에 가용하게 만들어졌다. 즉:

  1. 자유롭고 완전하며, 최신의 믿을만한 세계적인 가이드를 만들려는 목적을 지지하는 사람들.
  2. 이 목적을 달성하기위해 다른 위키여행자들과의 협력이 필요하다고 사의한 사람들.

만약 우리의 목적에 관심이 없다면 또는 목적에는 동의하지만 협력하고, compromise하고, 총의에 도달하거나 다른 위키여행자와 concession하는 것을 거절하신다면, 우리는 이 웹 서비스를 사용하지 말것을 요청합니다. 계속 우리의 바램에 반대하여 사용하시면, 우리는 가용한 수단을 사용하여 권리를 예약합니다 -- 기술적이거나 법적인 -- 그리하여 우리작업을 방해하는 것을 방지합니다.

참조: 상표 정책

Reframing, 그림 삽입[편집]

위키트래벌은 자한된 서버 자원을 지니며 컨텐트의 창출을 지지하기위해 그들을 사용하기를 좋아한다.

이 때문에, we ask that individuals or organizations wishing to re-distribute Wikitravel content do not serve images from Wikitravel for inclusion in their own pages, nor put Wikitravel pages into framesets.

거미 Spiders[편집]

Spiders, bots, and scripts that read wikitravel.org must obey the following rules. This includes "mass downloaders" like wget or HTTrack. IP addresses for programs that ignore these rules will be blocked at the TCP/IP level.

  1. Read-only scripts must read the robots.txt file for Wikitravel and follow its suggestions. Most programs (like wget) automatically know about robots.txt, as do major scripting languages' HTTP client libraries. But if you're writing your own program, check the Standard for Robot Exclusion for more info.
  2. Read-only scripts should recognize the non-standard Crawl-Delay field in robots.txt. If not, they must not fetch pages or images more often than once every 30 seconds.
  3. Read-only scripts must have a User-Agent header set. Scripts should provide a contact email or URL in the header. For example:
    • ExampleBot/0.1 (http://www.example.com/bot.html)
    • MyBot/2.3 (mybot@example.net)

같이 보기: 원하지 않는 편집 다루는 법

변수

행위

Docents

다른 언어