鍍金池/ 問答/ 人工智能問答
心夠野 回答

你好,我也是遇到一樣的問題。在docker中master命令后上傳沒問題,將9000端口映射出來到宿主機(jī)9000后,訪問hdfs://localhost:9000使用java api上傳,出現(xiàn)跟你一樣的問題。文件是上傳上去了,但是大小是0.eclipse報(bào)錯(cuò)跟你的一樣。請(qǐng)問你的問題解決了嗎?搞了好久沒解決

赱丅呿 回答

https://developer.mozilla.org...

根據(jù)報(bào)錯(cuò)信息, 把提示的那個(gè)HTTP頭加到返回信息中.

HTTP 響應(yīng)首部字段

本節(jié)列出了規(guī)范所定義的響應(yīng)首部字段。上一小節(jié)中,我們已經(jīng)看到了這些首部字段在實(shí)際場(chǎng)景中是如何工作的。

Access-Control-Allow-Origin

響應(yīng)首部中可以攜帶一個(gè) Access-Control-Allow-Origin 字段,其語法如下:

Access-Control-Allow-Origin: <origin> | *
其中,origin 參數(shù)的值指定了允許訪問該資源的外域 URI。對(duì)于不需要攜帶身份憑證的請(qǐng)求,服務(wù)器可以指定該字段的值為通配符,表示允許來自所有域的請(qǐng)求。

例如,下面的字段值將允許來自 http://mozilla.com 的請(qǐng)求:

Access-Control-Allow-Origin: http://mozilla.com
如果服務(wù)端指定了具體的域名而非“*”,那么響應(yīng)首部中的 Vary 字段的值必須包含 Origin。這將告訴客戶端:服務(wù)器對(duì)不同的源站返回不同的內(nèi)容。

誮惜顏 回答

python解釋器一般在/usr/bin/下面,你的路徑有問題吧。

枕頭人 回答

代碼第二行:使用的是字符串"INDEX_CONTENT"作為key存儲(chǔ)

代碼第三行:使用的是常量INDEX_CONTENT作為key獲取

確認(rèn)一下 這兩個(gè)的值吧

陌如玉 回答

使用relative,元素沒有脫離了文檔流,所以float生效,
使用absolute,元素脫離了文檔流,所以失效了

壞脾滊 回答

應(yīng)該返回的數(shù)據(jù)不是嚴(yán)格的json,network能看到數(shù)據(jù)但是你拿不到

巴扎嘿 回答

兩個(gè)kafka實(shí)例的server.properties中的broker.id是否重復(fù)了?

糖豆豆 回答

value=512y+32m+d
是假設(shè)所有的輸入年份都為有效的。

一個(gè)int類型的存儲(chǔ)長度為32位。
取后1-5位存儲(chǔ)d的值,因?yàn)?0<1<=d<=31。即2的5次方
取中間6-9位存儲(chǔ)m的值,因?yàn)?0<1<=m<=12<15。即2的4次方
剩下的10至31位存儲(chǔ)y的值(int為有符號(hào)整數(shù),32位為符號(hào)位)。

這是一個(gè)按位存儲(chǔ)的算法。
參考512y+32m+d怎么理解

m乘32即左移5位,y乘512即左移9位

至于月份計(jì)算value右移5位,現(xiàn)在32bit中只有y和m的值了,再右移4位,只剩下y的值了,移出去的就是m的值,也就是取模的結(jié)果

薔薇花 回答

ajax的設(shè)置頭部token

$.ajax({
    url: host + "/order/autoImport",
    method: 'post',
    data: excel,
    beforeSend: function(request) {
        request.setRequestHeader("token", token);
        request.setRequestHeader("version", version);
        request.setRequestHeader("taskId", currentTask.id);
    },
    success: function(rs) {
    
    }
})
兔囡囡 回答

LineSentence類的要求是:

Simple format: one sentence = one line; words already preprocessed and separated by     whitespace

你需要自己簡(jiǎn)單預(yù)處理一下。

現(xiàn)在比較流行的是doc2vec,有興趣可以看下:https://segmentfault.com/a/11...

萢萢糖 回答

先計(jì)算好一批偽隨機(jī)值放在Redis中,調(diào)用來了之后直接從Redis中返回?

萌面人 回答

目前代替方案:

public void clearAuthByUserId(String uid,Boolean author, Boolean out){
    //獲取所有session
    Collection<Session> sessions = redisSessionDAO.getActiveSessions();
    for (Session session:sessions){
        //獲取session登錄信息。
        Object obj = session.getAttribute(DefaultSubjectContext.PRINCIPALS_SESSION_KEY);
        if(obj instanceof SimplePrincipalCollection){
            //強(qiáng)轉(zhuǎn)
            SimplePrincipalCollection spc = (SimplePrincipalCollection)obj;
            SysUser user = new SysUser();
            BeanUtils.copyProperties(spc.getPrimaryPrincipal(),user);
            //判斷用戶,匹配用戶ID。
            if(uid.equals(user.getId())){
                if(author)
                    this.clearCachedAuthorizationInfo(spc);
                if(out){
                    redisSessionDAO.delete(session);
                }
            }
        }
    }
}
亮瞎她 回答

JAVA通過Gearman實(shí)現(xiàn)MySQL到Redis的數(shù)據(jù)同步(異步復(fù)制)
https://my.oschina.net/u/3385...
可以試試這種方式

小曖昧 回答

通過反編譯小程序源碼得知使用的是hproseRPC框架的數(shù)據(jù)交換個(gè)事

歆久 回答

原因找到了,是因?yàn)?生成next_url太慢,即往redis push之后,立馬被pop了,才導(dǎo)致redis 沒有 requests的序列化,然后導(dǎo)致其他scrapy實(shí)例無法讀取request繼而無法同時(shí)進(jìn)行數(shù)據(jù)抓取。

func (d *scanner)ChunksAsCPUNumber()  {
    var divided [][]string
    counts := d.Count()
    CPUNum := runtime.NumCPU()
    size := (counts + CPUNum - 1) / CPUNum

    for i := 0; i < counts; i += size {
        end := i + size

        if end > counts {
            end = counts
        }

        divided = append(divided, d.Files[i:end])
    }

    fmt.Printf("%#v\n", divided)
}
夢(mèng)囈 回答
故想做一層緩存。但是需要保證數(shù)據(jù)的正確性。

完全正確是不可能的。除非那邊服務(wù)有相應(yīng)的“通知”。

if hasCache:
    return cache

不就這樣么。

命多硬 回答

你只是定義了一個(gè)Request, 定義好的Request自己并不去去建立網(wǎng)絡(luò)聯(lián)接并下載, 而是能過scrapy的Downloader和Spider來完成.
參考官方文檔:

一般來說,Request 對(duì)象在spiders中被生成并且最終傳遞到 下載器(Downloader),下載器對(duì)其進(jìn)行處理并返回一個(gè) Response 對(duì)象, Response 對(duì)象還會(huì)返回到生成request的spider中。

如果想讓他運(yùn)行, 可以定義如下的spider

import scrapy
from scrapy.spiders import CrawlSpider, Rule

url = 'https://doc.scrapy.org/en/latest/intro/tutorial.html'


def ret(response):
    print('start print\n')
    print(response.body)

def errorcb(err):
    print(err+"\n")
    pass



class MySpider(CrawlSpider):
    name="test"
    def start_requests(self):
        return [scrapy.http.Request(url=url, callback=ret, errback=errorcb)]

保存成文件scrapy_cb.py, 然后通過

scrapy runspider scrapy_cb.py 

來運(yùn)行

挽青絲 回答

使用神經(jīng)網(wǎng)絡(luò)的吧。
現(xiàn)在做法是,用CNN網(wǎng)絡(luò)提取特征,訓(xùn)練一個(gè)分類器就OK了。
特征是什么?
非神經(jīng)網(wǎng)絡(luò)就是手工指定提取特征的規(guī)則,比如數(shù)字1就是有一條豎線;
用神經(jīng)網(wǎng)絡(luò)就簡(jiǎn)單了,管它什么顏色 線性 角度 紋理,直接卷積卷積卷積自動(dòng)抽取特征吧。分類器呢,簡(jiǎn)單來講,就是每個(gè)字都自動(dòng)訓(xùn)練形成一個(gè)模板(怎么表示的,可能就是個(gè)512維向量,但其中某個(gè)數(shù)指代什么,不知道,基本無法解釋,可以將網(wǎng)絡(luò)中的一些高階特征顯示出來,和以前的顏色紋理等人定特征也蠻相似的),圖片經(jīng)過神經(jīng)網(wǎng)絡(luò)后也被抽象成512維的特征向量,這張圖片的特征向量和哪個(gè)字的模板最像 那就判別這個(gè)圖片是那個(gè)字。訓(xùn)練過程就是一個(gè)反復(fù)強(qiáng)化的過程,最開始所有參數(shù)都隨機(jī)生成,其中有些參數(shù)能讓輸入的圖經(jīng)過整套計(jì)算過程走到目標(biāo)有些參數(shù)不能,能算到目標(biāo)的哪些參數(shù)就被反復(fù)強(qiáng)化,老是算到其他目標(biāo)的那些參數(shù)就被反復(fù)抑制,這樣下去這些網(wǎng)絡(luò)參數(shù)慢慢地就似乎認(rèn)識(shí)教給它的東西了。

怎么說呢,你知道m(xù)d5摘要吧,特征就是摘要,只不過md5的任務(wù)目標(biāo)和特征提取的任務(wù)目標(biāo)不一致。但其實(shí)都是摘要。