據報道,百度文心一言的繪畫功能對中文的理解,疑似是把中文翻譯成英文以後再作為prompt繪制的。
恰恰因為生成的梗圖夠多,反而能證明百度是自研的。
『中譯英』這個說法能解釋的問題,用『英譯中』一樣可以解釋,而且比起『中譯英』,『英譯中』的說法能解釋更多問題。
百度用了國外的圖片集來訓練自己的AI,但在翻譯AI標註的圖片時出了問題,把『巴士』翻譯成了『總線』。
百度這個模型現在確實完成度比較差,但目前看主要的問題是數據集太少,質量太差。
它的幸運在於,它一部分翻車的圖片反而幫他自證了清白,所以我看來套殼的可能性不大。
ai拿到一段字符串,會先分詞,我估計拿到熊熊烈火之後已經被分詞成了熊熊和烈火,然後在識別畫,調用畫的接口,把分好的詞翻譯成英文作為關鍵詞輸入調用,然後就出來這麼個鳥玩意,包括胸有成竹,國外的分詞庫肯定會分詞成,胸,有,成竹。
那畫出來肯定也是那鳥玩意。
無論是中譯英還是英譯中,熊熊燃燒都不應該出現熊,英文表述裡根本就沒有出現任何熊相關的東西。
可能連翻譯都不是,就隻是逐字提取關鍵字啥的。
總的來說技術上落後於gpt4發佈會展示的多模態能力,但是工程上倒沒什麼可黑的,把之前百度搞得圖像生成拿來復用也算是短平快而且節省成本的做法。