目录
  • 引言
  • 一、获取亚马逊列表页的信息
  • 二、获取详情页信息
  • 三、代理设置 
  • 四、全部代码
  • 总结

引言

        亚马逊网站相较于国内的购物网站,可以直接使用python的最基本的requests进行请求。访问不是过于频繁,在未触发保护机制的情况下,可以获取我们想要的数据。本次通过以下三部分简单介绍下基本爬取流程:

使用requests的get请求,获取亚马逊列表和详情页的页面内容使用css/xpath对获取的内容进行解析,取得关键数据动态ip的作用及其使用方法

一、获取亚马逊列表页的信息

以游戏区为例:

        获取列表内能获取到的商品信息,如商品名,详情链接,进一步获取其他内容。

        用requests.get()获取网页内容,设置好header,利用xpath选择器选取相关标签的内容:

import requests
from parsel import selector
from urllib.parse import urljoin
 
spiderurl = 'https://www.amazon.com/s?i=videogames-intl-ship'
headers = {
    "authority": "www.amazon.com",
    "user-agent": "mozilla/5.0 (iphone; cpu iphone os 10_3_3 like mac os x) applewebkit/603.3.8 (khtml, like gecko) mobile/14g60 micromessenger/6.5.19 nettype/4g language/zh_tw",
}
resp = requests.get(spiderurl, headers=headers)
content = resp.content.decode('utf-8')
select = selector(text=content)
nodes = select.xpath("//a[@title='product-detail']")
for node in nodes:
    itemurl = node.xpath("./@href").extract_first()
    itemname = node.xpath("./div/h2/span/text()").extract_first()
    if itemurl and itemname:
        itemurl = urljoin(spiderurl,itemurl)#用urljoin方法凑完整链接
        print(itemurl,itemname)

        此时已经获取的当前列表页目前能获得的信息: 

二、获取详情页信息

 进入详情页:

        进入详情页之后,能获得更多的内容

        用requests.get()获取网页内容,css选取相关标签的内容:

res = requests.get(itemurl, headers=headers)
content = res.content.decode('utf-8')
select = selector(text=content)
itempic = select.css('#main-image::attr(src)').extract_first()
itemprice = select.css('.a-offscreen::text').extract_first()
iteminfo = select.css('#feature-bullets').extract_first()
data = {}
data['itemurl'] = itemurl
data['itemname'] = itemname
data['itempic'] = itempic
data['itemprice'] = itemprice
data['iteminfo'] = iteminfo
print(data)

         此时已经生成详情页数据的信息:

        目前涉及到的就是最基本的requests请求亚马逊并用css/xpath获取相应的信息。

三、代理设置 

        目前,国内访问亚马逊会很不稳定,我这边大概率会出现连接不上的情况。如果真的需要去爬取亚马逊的信息,最好使用一些稳定的代理,我这边自己使用的是ipidea的代理,可以白嫖50m流量。如果有代理的话访问的成功率会高,速度也会快一点。         

        代理使用有两种方式,一是通过api获取ip地址,还有用账密的方式使用,方法如下:

3.1.1 api获取代理

3.1.2 api获取ip代码

def getproxies():
    # 获取且仅获取一个ip
    api_url = '生成的api链接'
    res = requests.get(api_url, timeout=5)
    try:
        if res.status_code == 200:
            api_data = res.json()['data'][0]
            proxies = {
                'http': 'http://{}:{}'.format(api_data['ip'], api_data['port']),
                'https': 'http://{}:{}'.format(api_data['ip'], api_data['port']),
            }
            print(proxies)
            return proxies
        else:
            print('获取失败')
    except:
        print('获取失败')

3.2.1 账密获取代理 

         因为是账密验证,所以需要 去到账户中心填写信息创建子账户:

         创建好子账户之后,根据账号和密码获取链接:

3.2.2 账密获取代理代码

# 获取账密ip
def getaccountip():
    # 测试完成后返回代理proxy
    mainurl = 'https://api.myip.la/en?json'
    headers = {
        "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
        "user-agent": "mozilla/5.0 (iphone; cpu iphone os 10_3_3 like mac os x) applewebkit/603.3.8 (khtml, like gecko) mobile/14g60 micromessenger/6.5.19 nettype/4g language/zh_tw",
    }
    entry = 'http://{}-zone-custom{}:proxy.ipidea.io:2334'.format("帐号", "密码")
    proxy = {
        'http': entry,
        'https': entry,
    }
    try:
        res = requests.get(mainurl, headers=headers, proxies=proxy, timeout=10)
        if res.status_code == 200:
            return proxy
    except exception as e:
        print("访问失败", e)
        pass

        使用代理之后,亚马逊商品信息的获取改善了不少,之前代码会报各种连接失败的错误,在requests请求之前调用代理获取的方法,方法return回代理ip并加入requests请求参数,就可以实现代理请求了。

四、全部代码

# coding=utf-8
 
import requests
from parsel import selector
from urllib.parse import urljoin
 
def getproxies():
    # 获取且仅获取一个ip
    api_url = '生成的api链接'
    res = requests.get(api_url, timeout=5)
    try:
        if res.status_code == 200:
            api_data = res.json()['data'][0]
            proxies = {
                'http': 'http://{}:{}'.format(api_data['ip'], api_data['port']),
                'https': 'http://{}:{}'.format(api_data['ip'], api_data['port']),
            }
            print(proxies)
            return proxies
        else:
            print('获取失败')
    except:
        print('获取失败')
 
spiderurl = 'https://www.amazon.com/s?i=videogames-intl-ship'
headers = {
    "authority": "www.amazon.com",
    "user-agent": "mozilla/5.0 (iphone; cpu iphone os 10_3_3 like mac os x) applewebkit/603.3.8 (khtml, like gecko) mobile/14g60 micromessenger/6.5.19 nettype/4g language/zh_tw",
}
proxies = getproxies()
resp = requests.get(spiderurl, headers=headers, proxies=proxies)
content = resp.content.decode('utf-8')
select = selector(text=content)
nodes = select.xpath("//a[@title='product-detail']")
for node in nodes:
    itemurl = node.xpath("./@href").extract_first()
    itemname = node.xpath("./div/h2/span/text()").extract_first()
    if itemurl and itemname:
        itemurl = urljoin(spiderurl,itemurl)
        proxies = getproxies()
        res = requests.get(itemurl, headers=headers, proxies=proxies)
        content = res.content.decode('utf-8')
        select = selector(text=content)
        itempic = select.css('#main-image::attr(src)').extract_first()
        itemprice = select.css('.a-offscreen::text').extract_first()
        iteminfo = select.css('#feature-bullets').extract_first()
        data = {}
        data['itemurl'] = itemurl
        data['itemname'] = itemname
        data['itempic'] = itempic
        data['itemprice'] = itemprice
        data['iteminfo'] = iteminfo
        print(data)

        通过上面的步骤,可以实现最基础的亚马逊的信息获取。

        目前只获得最基本的数据,若想获得更多也可以自行修改xpath/css选择器去拿到你想要的内容。而且稳定的动态ip能是你进行请求的时候少一点等待的时间,无论是编写中的测试还是小批量的爬取,都能提升工作的效率。以上就是全部的内容。 

总结

到此这篇关于用python获取亚马逊商品信息的文章就介绍到这了,更多相关python亚马逊商品信息内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!