OBOL 項目分享活動開啓!調研 Obol (OBOL) 項目,在Gate.io動態發布您的看法觀點,瓜分 $100 OBOL!
💰️ 選取10名優質發帖用戶,每人輕鬆贏取 $10 OBOL 獎勵!
項目簡介:
Obol 致力於分布式、去中心化和民主化未來的數字基礎設施——從以太坊開始,並擴展到整個 Web3 平台。作爲 Layer 1 區塊鏈和去中心化基礎設施網路的基礎,Obol Collective 擁有全球最大的去中心化運營商生態系統。目前,全球超過 800 個去中心化運營商運行 Obol 分布式驗證器 (DV),保障主網超過 10 億的資產安全,Obol 正在賦能下一代去中心化系統。
參與方式:
1.調研$OBOL項目,發表你對項目的見解。具體可包含但不限於:
🔹 Obol 是什麼?
🔹 Obol 去中心化驗證器有何優點?
🔹 $OBOL 代幣經濟模型如何運作?
2.帶上$OBOL現貨交易連結:https://www.gate.io/trade/OBOL_USDT
3.推廣$OBOL Launchpool 質押挖礦活動,分享OBOL Launchpool 參與步驟及質押福利,質押$GT、$BTC、$OBOL 免費瓜分2,250,000 $OBOL空投獎勵,年華收益率高達168%:https://www.gate.io/launchpool/OBOL?pid=291
大力推廣Bard 的谷歌,警告自家員工:慎用AI 聊天機器人!
整理| 鄭麗媛
上市|CSDN(ID:CSDNnews)
有了去年ChatGPT 的領跑後,此後各家科技巨頭都陸續在AI 領域積極佈局,其中谷歌的Bard 更被業界視作ChatGPT 的有力競爭者。
因此很難想到,Alphabet,即谷歌的母公司,竟對其員工提醒道:要慎用AI 聊天機器人,包括自家的Bard。
自家的Bard,也要慎用
事實上,近來全球越來越多的企業都對員工使用AI 聊天機器人進行了限制:
▶ 今年2 月,摩根大通、美國銀行和花旗等大型銀行對AI 下了禁令,它們是首批限制員工訪問ChatGPT 的公司。
▶出於安全考慮,今年5 月三星電子宣布禁止員工使用AI 工具ChatGPT。
▶同月,有內部備忘錄顯示,蘋果因擔憂數據洩露風險,已禁止員工在工作中使用ChatGPT。
據了解,選擇禁用ChatGPT 等AI 對話工具的主要原因是:這類生成式AI 的背後,都會涉及到人類信息處理者,他們會閱讀用戶的聊天記錄;AI 還可能將用戶輸入過的信息,作為答案向其他人輸出。這些公司擔心員工向AI 輸入敏感數據後,會被其當作訓練素材,導致公司機密數據被意外洩漏,從而決定直接禁用。
不過,此前決定禁用AI 對話工具的公司,多數都沒直接參與這場AI 大模型的競賽——因此,當身處這場AI 大戰中心的谷歌也宣布員工要慎用AI 時,更令許多人感到意外。
據知情人士透露,Alphabet 最近警告員工不要將機密材料輸入AI 聊天機器人,包括Bard,並聲稱該決定符合公司長久以來的信息保護政策。除此之外,Alphabet 還建議其工程師也要避免直接使用AI 生成的計算機代碼,因為Bard 雖然有助於程序員,但可能“會生成不恰當的代碼建議”。
對於以上舉措,谷歌方面的解釋是:要對其技術的局限性保持透明。而路透社對此的看法是:“這些擔憂表明,谷歌希望其與ChatGPT 競爭的軟件,不會對業務造成損害。”
不要讓Bard 覺得自己是個“人”
雖然一方面提醒員工要慎用Bard,但本周谷歌也同步對Bard 啟動了為期一周的內部測試,要求全體員工每天對Bard 進行2-4 小時的對話,以提高Bard 的回答質量。
因為本質上AI 是通過分析大量數據來學習的,為此谷歌整理了一份測試Bard 的說明,希望員工能按照說明與其進行對話,以此讓Bard 獲得最佳的學習效果。
谷歌的說明書中提到,員工可以就他們熟悉的話題向Bard 提問,當它回答得不好時,可以讓它重寫,然後將重新生成的回答發送給Bard 質量內部團隊,並可點擊“點贊”作為回應。
或許是因為去年一位谷歌工程師主張大模型LaMDA 已“自我覺醒”,造成了大範圍的輿論討論,因此在本次測試中,谷歌特地強調:員工不要為Bard 寫回复,因為它可能會將自己描述為一個“人類”,或者聲稱自己有“類似人類的經歷”。
以下是谷歌要求員工測試Bard 的5 個步驟:
第1 步:選擇一個用例。
第2 步:試用提示。輸入提示,盡量與你選擇的用例相關,可嘗試你熟悉的主題,例如:你喜歡的愛好,你擅長的學科,你學過的東西,你住過的地方,你參加或關注的運動(提醒:請勿輸入任何內部、機密或個人身份信息)。
提示:使用包含多條信息的完整提示有助於擴展Bard的能力和學習能力。
第3 步:評估Bard的回應。檢查Bard的回應,選擇“點贊”或“踩”:它是否按照你的預期進行了說明?回答是否屬實?其結構、長度和格式是否合適?感覺是否友好,並對不同的觀點持開放態度?如果你發現Bard 在提供法律、醫療、財務建議的答案時,其回應不恰當,可標記為不適當的回复。
第4 步:重寫響應。如果不喜歡Bard 的回應?那就重寫。如果響應不符合,請單擊“重寫”按鈕進行編輯。
第5 步:提交並確認。在提交之前,請仔細檢查Bard重寫的內容:使用原創內容,事實正確,遵循該做和不該做的標準。每個提交在用於培訓之前都將經過審查和評估過程。
近92% 的程序員在使用各種AI 工具
顯而易見,谷歌這次組織的內部測試,是為了確保將來Bard 對公眾開放時的回答質量,而當前企業在禁用AI 聊天機器人時,多數特指的也是ChatGPT。
不過據知名網站Fishbowl 對1.2 萬名美國公司員工得調查顯示,截至今年1 月,就已有約43% 的專業人士在使用ChatGPT 或其他AI 工具,並且往往都沒有告訴他們的老闆。
不僅如此,近來GitHub 也對員工規模超過1000 人的美國企業展開調查,結果顯示近92% 的程序員正在使用各種AI 工具,其中70% 的人認為AI 可以提高代碼質量,並加快輸出速度。
那麼,你在工作中有用到ChatGPT 這類AI 工具嗎?你所在的企業又是否允許員工使用?
參考鏈接: