webdevqa.jp.net

urllib2-リクエストの投稿

Urllib2を使用して単純なPOST要求を実行しようとします。ただし、サーバーの応答は、単純なGETを受信したことを示しています。送信リクエストのタイプを確認しましたが、POSTに設定されています。
サーバーが期待どおりに動作するかどうかを確認するために、URLに連結された(以前のPOST-)データを使用してGETリクエストを実行しようとしました。これは私が期待した答えを得ました。
誰かが私が誤解していることの手がかりを持っていますか?

def connect(self):
    url = 'http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html/'
    user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
    header = { 'User-Agent' : user_agent }

    values = {
      'city_from' : 69,
      'radius_from' : 0,
      'city_to' : 263,
      'radius_to' : 0,
      'date' : 'date',
      'day' : 5,
      'month' : 03,
      'year' : 2012,
      'tolerance' : 0
    }

    data = urllib.urlencode(values)
    # req = urllib2.Request(url+data, None, header) # GET works fine
    req = urllib2.Request(url, data, header)  # POST request doesn't not work

    self.response = urllib2.urlopen(req)

これは、ここで説明したような問題のようです: Python URLLib/URLLib2 POST しかし、私の場合、末尾のスラッシュが欠落していないことは確かです。 ;)

私はこれが愚かな誤解かもしれないと恐れていますが、私はすでに何時間も思っています!



EDIT:印刷に便利な関数:

def response_to_str(response):
    return response.read()

def dump_response_to_file(response):
    f = open('dump.html','w')
    f.write(response_to_str(response))



編集2:解像度:

サイトとの実際のやり取りをキャプチャするツール http://fiddler2.com/fiddler2/ を見つけました。どうやらサーバーは入力フォームからデータを取得し、数回リダイレクトしてから、このデータを単にURLに追加してGETリクエストを作成します。
urllib2はすべて問題なく、時間を誤用したことをお詫び申し上げます。

13
Zakum

質問を閉じるだけです:
本当に問題は、サーバーがPOSTリクエストを期待していなかったことです(ただし、ユースケースを考慮する必要があります)。したがって、(もう一度)フレームワークが壊れていませんでした。 ;)

1
Zakum

確認する必要があるもの:

  • 正しいURLに投稿していますか?
  • ログインしなくても結果を取得できますか?
  • さまざまな投稿値の出力例をいくつか示します。

Firefoxの Firebug またはGoogle Chrome DevTools を使用して、正しい投稿URLを見つけることができます。

Cookieをサポートするコードをいくつか提供しました。これにより、最初にログインし、Cookieを使用して、投稿パラメーターで後続のリクエストを行うことができます。

最後に、HTML出力の例をいくつか紹介していただければ、より簡単になります。

これは、 CSRF/XSRF で保護されたページを含むほとんどのWebページへのPOSTでこれまでに非常に確実に機能した私のコードです(正しく理解できる限りwhat投稿し、where(投稿先のURL))。

import cookielib
import socket
import urllib
import urllib2

url = 'http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html/'
http_header = {
                "User-Agent" : "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.46 Safari/535.11",
                "Accept" : "text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,text/png,*/*;q=0.5",
                "Accept-Language" : "en-us,en;q=0.5",
                "Accept-Charset" : "ISO-8859-1",
                "Content-type": "application/x-www-form-urlencoded",
                "Host" : "www.mitfahrgelegenheit.de",
                "Referer" : "http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html/"
                }

params = {
  'city_from' : 169,
  'radius_from' : 0,
  'city_to' : 263,
  'radius_to' : 0,
  'date' : 'date',
  'day' : 5,
  'month' : 03,
  'year' : 2012,
  'tolerance' : 0
}

# setup socket connection timeout
timeout = 15
socket.setdefaulttimeout(timeout)

# setup cookie handler
cookie_jar = cookielib.LWPCookieJar()
cookie = urllib2.HTTPCookieProcessor(cookie_jar)

# setup proxy handler, in case some-day you need to use a proxy server
proxy = {} # example: {"http" : "www.blah.com:8080"}

# create an urllib2 opener()
#opener = urllib2.build_opener(proxy, cookie) # with proxy
opener = urllib2.build_opener(cookie) # we are not going to use proxy now

# create your HTTP request
req = urllib2.Request(url, urllib.urlencode(params), http_header)

# submit your request
res = opener.open(req)
html = res.read()

# save retrieved HTML to file
open("tmp.html", "w").write(html)
print html
15
gsbabil

ヘッダーにペアを追加してみてください:

   'Content-type': 'application/x-www-form-urlencoded'
0
Not_a_Golfer

次のように、URLの末尾のスラッシュを削除してみてください。

url = 'http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html'

POSTリクエストの送信先のサーバースクリプトが実際にPOSTリクエストをサポートしていない可能性があります。

0
sholsapp