這週,大型科技公司紛紛推出了能夠閱讀郵件和文件,或以個人化方式進行對話的人工智慧產品。然而,即使在公開展示時,這些新工具也已經出現錯誤,包括虛構郵件或將基本事實混淆的現象,這表明科技巨頭在完全準備好之前就急於推出最新的開發產品。
Google表示,它的Bard聊天機器人可以總結Gmail和Google Docs中的文件,但用戶發現它虛構了從未發送過的郵件。OpenAI推出了新的Dall-E 3圖像生成器,但社交媒體上的人們很快指出,官方演示中的圖像缺少一些請求的細節。亞馬遜宣布了Alexa的新對話模式,但在《華盛頓郵報》的演示中,該設備一再失誤,包括錯誤地推薦了國家錯誤的博物館。
在一場競爭激烈的競賽中,科技巨頭們爭相主導“生成式”人工智慧技術,該技術能夠撰寫人類風格的文本並生成逼真的圖像,他們正在加快推出產品供消費者使用。讓更多人使用這些產品可以生成提升其品質所需的數據,這激勵著他們盡可能地將這些工具推送給更多人。但是許多專家甚至是科技公司的高管們都已警告說,推出全新且未經測試的技術存在危險。
“大型科技公司想使用人工智慧的一種FOMO感,他們不想錯過早期的受眾,”Mozilla首席產品官兼微軟、Facebook和Twitter的前高管Steve Teixeira表示。“所有人都知道這些系統不完美。”
這些公司表示,他們已清楚表示他們的人工智慧還在不斷改進中,並且他們已經小心地設置了約束措施,以防止技術發表冒犯性或有偏見的陳述。一些高管,如OpenAI的首席執行官Sam Altman,認為最好是讓人們現在開始使用人工智慧工具,以了解它們帶來的風險,然後再使該技術變得更強大。
然而,高速且有缺陷的推出方式與數月來的警告相抵觸,包括數百名專家簽署的一句聲明,該聲明表示人工智慧對人類的風險與核武器和大流行病相當。他們認為公司應該更加謹慎。擔憂的範圍包括短期問題,例如人工智慧將更多的男性主義和種族主義偏見融入重要技術中,以及長期擔憂人工智慧超越人類智慧並開始獨自行動的科幻未來。
“競爭壓力是大多數技術發展的驅動力,”他說。“我們需要非常聰明地構建一個允許創新發生的監管環境,同時確保有足夠的安全保障。”
人工智慧產品火熱登場,科技公司推出AI新工具
從蘋果到微軟,許多公司利用這個季節推出新產品,以便趕上節日購物潮。今年,眾人的焦點都在人工智慧上。
去年11月,許多人第一次直接體驗到最新一代人工智慧,當時OpenAI推出了ChatGPT。聊天機器人技術和圖像生成器的技術基於從開放互聯網上抓取的數十億行文本或圖像進行訓練。 ChatGPT能夠回答複雜問題,通過專業考試,進行人類般的對話引起了激增的興趣,最大的公司紛紛作出回應。
但是仍然存在著問題。聊天機器人經常虛構虛假信息,把它們當作真實信息,這是人工智慧專家稱之為“幻覺”問題。圖像生成器正在迅速改進,但是如何阻止它們被用於製作宣傳和虛假信息尚無共識,尤其是美國正急於迎接2024年的選舉。
許多受版權保護的素材也用於訓練這些機器人,引發了一系列控告科技公司盜竊行為的訴訟,這引發了有關生成式人工智慧的法律基礎的問題。就在本週,一些世界知名作家聯合起來控訴OpenAI使用其作品來訓練其人工智慧工具。
微軟作為人工智慧競爭中的領導者,在今年2月推出了Bing聊天機器人的第一個版本,將其描繪為潛在的搜索引擎替代品,因為它可以回答幾乎任何話題上的對話問題。但是,這個機器人立即失控,騷擾用戶,告訴人們它會思考和感覺,並以“悉尼”這個別名稱來指稱自己。該公司迅速限制了機器人的創造力,使其行為更加謹慎,並限制了人們一次能夠向其提問的問題數量,微軟解釋說,這樣就能使用戶引導機器人進入奇怪的方向。
然而,高速且有缺陷的推出方式與數月來的警告相抵觸,包括數百名專家簽署的一句聲明,該聲明表示人工智慧對人類的風險與核武器和大流行病相當。他們認為公司應該更加謹慎。擔憂的範圍包括短期問題,例如人工智慧將更多的男性主義和種族主義偏見融入重要技術中,以及長期擔憂人工智慧超越人類智慧並開始獨自行動的科幻未來。
留言
張貼留言