一、導論:當演算法進入慾望市場
近十年,亞洲包養市場(sugar dating)在社群媒體與數位支付技術的推動下逐漸制度化。包養App的出現,標誌著「關係經濟」的演算法化時代——配對、互動、評價皆由AI驅動,將原本模糊的情感與金錢界線,轉化為可量化的數據關係。
隨著AI「伴侶推薦演算法」被導入,平台聲稱能更精準地理解「誰適合誰」,透過行為分析、臉部辨識與消費習慣預測,為使用者創造更高成功率的配對。然而,這種技術邏輯背後蘊藏的社會權力,可能使慾望被階級化、美感被殖民化——AI不再只是撮合者,而是價值的再生產者。
二、理論背景:數位親密與演算法治理
本研究以「數位親密」(digital intimacy)與「演算法治理」(algorithmic governance)為理論框架。
數位親密指的是在網路環境中,情感與性慾互動被數據化、媒介化的現象;演算法治理則指演算法作為權力機制,影響人際關係、決策與社會秩序的過程。
在包養平台中,演算法治理表現為三個層面:
資料收集與評價規則:平台透過用戶行為建立特質模型;
配對演算與曝光控制:依據付費層級與偏好權重,決定誰能被看見;
回饋循環:演算法不斷從互動數據學習,形成「慾望的自我強化機制」。
因此,AI推薦系統不只是中介工具,而是「慾望的建築師」,塑造人類如何理解吸引、價值與可交換性。
三、AI推薦邏輯:資料標註中的權力結構
(一)資料來源的社會偏差
AI推薦模型多建立於用戶回饋(like、match、聊天時間)與影像辨識特徵(膚色、臉型、笑容頻率)之上。這些資料來源反映了既有的社會審美:瘦、高、白、年輕、女性柔順、男性財富。
當AI學習此模式後,演算法便傾向優先推薦符合「多數偏好」者,排擠其他樣貌、族群或風格。
(二)隱性階級輸入
平台常設有「高端會員」制度,付費越高可獲得更多推薦機會與曝光。這種數據邏輯將經濟能力直接轉化為配對權力,使「可見性」成為新型社會資本。
AI因此強化了「金錢—外貌」的雙重階級結構:有錢者得以選擇,有貌者被選擇。
(三)標註者的文化視角
AI模型訓練多由標註團隊進行,而這些團隊常位於低薪開發國家或由男性主導。其標註標準不僅非中立,還帶有特定性別觀與文化偏好。例如「性感」在不同文化中意義不同,但AI卻可能採單一價值定義,形塑全球性的審美殖民。
四、AI演算法與性市場階級化再生產
(一)階級差異的數位再現
包養市場本身已存在明顯的經濟與權力不對稱:提供金錢的Sugar Daddy/Mommy與提供情感或性勞動的Sugar Baby。AI介入後,這層階級不僅被放大,更被制度化。
付費權重排序:高付費會員的資料被演算法優先曝光,低階用戶幾乎無法突破「可見性天花板」。
演算法回饋偏見:越多被點讚、匹配的帳號越容易被再推薦,形成「強者恆強」的馬太效應。
地理與教育層級:AI傾向將「高收入地區」「高學歷背景」者互相推薦,間接製造文化與經濟隔離。
(二)性別化的權力結構
女性在平台中常被評價為「外貌值」;男性則被量化為「財力值」。AI強化這種二元結構,使性市場更加封閉化:
女性須維持特定形象以保持曝光;
男性透過金錢提升配對權力;
彼此的互動被演算法規範成經濟交換模式,而非情感互動。
五、審美殖民:AI如何複製全球化慾望秩序
(一)從社群資料到全球標準化美感
AI模型多使用來自Instagram、YouTube等開放影像資料進行訓練。這些平台長期以「西方化的美」為主導,如白皙皮膚、立體五官、金髮或妝容精緻等標準。
當包養App導入此類模型時,演算法在實質上輸出的是「西方資本主義的慾望模板」,導致亞洲女性在潛意識中模仿歐美風格,形成自我審查與身體焦慮。
(二)「可被觀看」的身體政治
AI審美殖民不只是外貌問題,更是觀看權力的問題。當演算法決定誰被推薦、誰被忽略,它同時決定了誰有資格被「慾望化」。
東亞女性的形象常被建構為「順從、純淨、可愛」;而東南亞女性則被標籤為「熱情、異域化」。這些分類背後是殖民式凝視的延續,將性吸引力轉化為文化階序。
(三)本地文化的被動調適
台灣、日本與韓國的包養App在本地化AI模型時,常刻意「混合」東亞與歐美標準,如將韓星式妝容與歐美身材曲線並置,形成混雜審美。
這看似多元,實則是「去脈絡化的全球慾望化」:本地文化不再主體,而是被算法拼貼成消費符號。
六、數位身分與慾望分層:可見與不可見的界線
AI推薦不僅改變外貌展示,更改變了使用者的數位身分邏輯。
平台上的「個人檔案」逐漸成為可被量化的商品標籤:星座、身高、收入、職業、興趣,全都被演算法評估為「配對值」。
這種慾望分層產生兩種結果:
被看見者的焦慮:高匹配者須不斷維持形象、更新照片,否則曝光下降;
被隱形者的無力:低匹配者難以突破AI封鎖,逐漸退出市場。
性市場因此出現「可見階層」與「數位邊緣階層」,AI演算法取代了過去社會標籤,成為新的階級分化工具。
七、平台責任與倫理治理
(一)透明化不足
目前多數包養App未公開推薦邏輯或偏好權重。使用者無法得知自己被推薦的原因,也無從察覺演算法的偏見來源。
(二)缺乏多元審查
平台開發團隊多缺乏性別研究與文化倫理專業,導致模型偏向市場效率,而非社會公平。
(三)AI審美教育缺位
政府與社會尚未建立針對「數位親密演算法」的倫理指導原則。一般民眾亦缺乏對AI偏見的認知,使偏差審美被自然化。
八、使用者的反抗與策略性抵抗
儘管演算法似乎無所不在,但部分使用者展現了顯著的能動性。
假資料與形象操弄:女性透過多重帳號、修改年齡或照片風格,干擾AI學習邏輯;
集體知識分享:在Telegram與Discord等社群中,出現「演算法反制攻略」討論群;
非典型美學實驗:部分使用者以中性妝容、自然膚色或文化服飾作為抗議行為,嘗試打破單一審美霸權。
這些微型行動揭示,即使在技術壟斷下,使用者仍有「反演算法政治」(politics of resistance)的空間。
九、政策與社會對策建議
建立演算法透明制度:
政府可要求平台揭露AI推薦依據與審核機制,類似歐盟《AI法案》(AI Act)中的高風險系統透明規範。
推動「演算法平權審查」:
建立跨領域審查委員會,由資訊、性別與文化專家共同檢視AI訓練資料。
強化數位倫理教育:
鼓勵學校與公部門推動AI媒體素養課程,讓民眾理解技術如何影響慾望與社會地位。
支持替代性平台發展:
鼓勵社會企業打造以「價值共感」「互惠陪伴」為核心的App,跳脫以外貌與金錢為導向的框架。
鼓勵女性與性工作者參與AI設計:
讓經驗者成為開發者,將被觀看的主體轉為能定義觀看邏輯的主體。
十、結論:當慾望被演算法化
AI「伴侶推薦演算法」的導入,使包養市場從人際交易轉為數據治理。
它以中立之名行階級再製之實,以效率之名推動審美殖民化。慾望不再是自由選擇,而是被演算法預先編碼的社會結構。
然而,危機中亦孕育契機。唯有當技術透明化、審美多元化、教育普及化,人類才能重新奪回對慾望的詮釋權。
否則,AI將不僅預測我們的愛,也決定我們該愛誰——這正是性市場階級化的最終極形式。
延伸閱讀
