鍍金池/ 問(wèn)答/ 數(shù)據(jù)分析&挖掘問(wèn)答
妖妖 回答

本機(jī):chrome 64 python2.7 selenium3.8
給你試了下headless模式下,登錄后,系統(tǒng)檢測(cè)瀏覽器版本太低或不兼容,所以定位不準(zhǔn) 。
如下圖
圖片描述

你可以嘗試在登錄后截圖看下

截圖

driver.get_screenshot_as_file(time.strftime("%Y%m%d%H%M%S") + ".png")

艷骨 回答

作業(yè)自己做

SQL join 用于根據(jù)兩個(gè)或多個(gè)表中的列之間的關(guān)系,從這些表中查詢數(shù)據(jù)。
http://www.w3school.com.cn/sq...
提示:city表的id需要和news表的city對(duì)應(yīng)

SQL group by 用于結(jié)合合計(jì)函數(shù),根據(jù)一個(gè)或多個(gè)列對(duì)結(jié)果集進(jìn)行分組。
http://www.w3school.com.cn/sq...
提示:需要按city分組

SQL count 返回在給定的選擇中被選的行數(shù)。
http://www.w3school.com.cn/sq...
提示:用count(1)也行,速度會(huì)稍微快一點(diǎn)

尛曖昧 回答

var data = {"result":[["分類名稱1","14818174"],["分類21","7431363"],["欄目2","7441546"],["欄目3","6376027"],["分類44","10221414"]]};

把data從前端post到php

<?php
$title_array = [];
foreach($_POST['data']['result'] as $title) {

$title_array[] = $title[0];

}

?>

悶油瓶 回答

因?yàn)槟阌?Apache 部署的時(shí)候,Python 環(huán)境是全局的,你的 conda 環(huán)境并沒(méi)有配置進(jìn)去

看看這個(gè)答案能否解決你的問(wèn)題

https://stackoverflow.com/que...

雨蝶 回答

代碼有小錯(cuò)誤

$this->generateUniqueValidationCodes($number);

這里還得加上return
驗(yàn)證碼字段需要唯一,好奇這個(gè)為什么要唯一?
唯一的話,你加上Unique Index好了

乖乖瀦 回答

如果確定數(shù)組里只有payment_typeplace_rental兩個(gè)key的話,那么完全可以把payment_type的值當(dāng)下標(biāo),count_place_rental當(dāng)做值

$new_arr = [];
foreach ($arr['info'] as $key => $value) {
    if (!isset($new_arr[$value['payment_type']]) || empty($new_arr[$value['payment_type']])) {
        $new_arr[$value['payment_type']] = $value['place_rental'];
    } else {
        $new_arr[$value['payment_type']] += $value['place_rental'];
    }
}
var_dump($new_arr);
嫑吢丕 回答

完成項(xiàng)目之后,點(diǎn)擊左上角,下載為html格式的,打開就是表格樣式了

苦妄 回答

如果ie可以操作,那就把程序里的useragent換成ie的咯

鐧簞噯 回答

漏了theme(),犯了個(gè)2b錯(cuò)誤。。。

毀憶 回答

geojson 可以轉(zhuǎn)化成平面多邊形數(shù)據(jù),然后你平均分布的點(diǎn)可以依次跟這個(gè)多邊形對(duì)比。

墨小白 回答

當(dāng)然可以,可以使用 matplotlib 的滑塊組件。

下面這個(gè)例子,通過(guò)拖動(dòng)滑塊顯示不同的圖像

import numpy as np
import matplotlib.pyplot as plt
from matplotlib.widgets import Slider

fig, ax = plt.subplots()
plt.subplots_adjust(left=0.25, bottom=0.25)

axindex = plt.axes([0.25, 0.1, 0.65, 0.03], facecolor='lightgoldenrodyellow')
sindex = Slider(axindex, 'Index', 1, 10, valinit=2, valstep=1)

def update(val):
    index = int(sindex.val)
    ax.clear()
    ax.set_xlabel('index={}'.format(index))
    x = np.arange(0, 2*np.pi, 0.01)
    y = np.sin(x * (2 ** index))
    ax.plot(x, y)
    fig.canvas.draw_idle()
sindex.on_changed(update)

update(None)
plt.show()

動(dòng)畫效果圖
圖片描述

如果要輸出報(bào)告,可改用 PDF 分頁(yè)。

風(fēng)畔 回答

MDN官網(wǎng)有這么一段話

clipboard.png

所以for...in在這里并不可靠
此處在循環(huán)前保存一個(gè)length,用下標(biāo)遍歷就好了

硬扛 回答
import pandas as pd

data1 = [{'a': '1', 'b': ''}, {'a': '', 'b': '2'}]
data2 = [{'a': '', 'b': '3'}, {'a': '4', 'b': ''}]

df1 = pd.DataFrame(data1)
df2 = pd.DataFrame(data2)

for i, row in df1.iterrows():
    for key in row.keys():
        if not row[key]:
            row[key] = df2.loc[i][key]

print df1
孤慣 回答

函數(shù)名錯(cuò)了,是get_media_requests

浪蕩不羈 回答

所以你是問(wèn)為什么報(bào)錯(cuò),還是問(wèn)為什么網(wǎng)站卡嘛……

報(bào)錯(cuò)是因?yàn)轫憫?yīng)數(shù)據(jù)格式不對(duì),忽略就好了。

心悲涼 回答

頁(yè)面內(nèi)所展示的音頻和圖片本身就是開放的吧,只要你不去檢測(cè)權(quán)限展示給正常瀏覽用戶那樣還怎么防止哇,做水印或者音頻截取可以防止源文件拿去

忠妾 回答

你描述問(wèn)題的信息太少了,能不能詳細(xì)一點(diǎn),比如說(shuō)哪個(gè)網(wǎng)站?lt是什么?

心上人 回答

不麻煩各位了,我找到問(wèn)題的原因了。我用代理看了下可以查看頁(yè)面,可以訪問(wèn),應(yīng)該是ip被封了。

離魂曲 回答

商業(yè)網(wǎng)站怎么可能不防爬,這個(gè)是動(dòng)態(tài)加載的,信息都分塊動(dòng)態(tài)加載啦,你F12捉一下xhr的包看一下,我就看到了幾個(gè)包對(duì)應(yīng)著school啊,Property timeline for 5/29 Stephenson Street啊,Similar homes in Pialba的信息,都是json數(shù)據(jù)看著辣眼,丟到排版器排一下看看吧

圖片描述

如果你只想要那個(gè)包的話就帶上cookie去請(qǐng)求,幾得把cookie轉(zhuǎn)成字典再丟過(guò)去,實(shí)測(cè)成功

import requests
cookie = '*********************'
url = 'https://www.realestate.com.au/property/unit-5-29-stephenson-st-pialba-qld-4655'
headers = {'referer': 'https://www.realestate.com.au/property/unit-5-29-stephenson-st-pialba-qld-4655',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36'
}

def trans_cookie(cookie):
    items =cookie.split(';')
    item_dict = {}
    for item in items:
        key = item.split('=')[0].replace(' ', '')
        value = item.split('=')[1]
        item_dict[key] = value
    print(item_dict)
    return item_dict


cookies = trans_cookie(cookie)





r = requests.get(url,cookies=cookies,headers=headers)
with open('gg.txt','w',encoding='utf-8') as f:
    f.write(r.text)

圖片描述

離殤 回答

圖片描述

你怎么獲取的?我的是正常的啊