生成式 AI的實現方式多種多樣
包括 不同的 模型架構 與 演算法:
生成對抗網路(GAN):
由一個 生成器 和一個 鑑別器 組成,
透過 競賽 方式 讓 生成器 產生越來越逼真的資料,
多用於 圖像 等內容的生成 。
Transformer架構:
是一種以 自注意力機制 為 核心 的 神經網路模型,
主 要應用於 自然語言處理(NLP) 等領域。
它的 關鍵創新在於
不使用傳統的 循環神經網路(RNN:一個字一個字慢慢看),
而是透過 同時關注序列 中 所有元素之間 的 關係 來捕捉資訊。
目前文字領域中最主流的
是以Transformer為基礎的
大型語言模型(LLM) ,如 GPT-4,
能夠 擅長 理解上下文 並生成 長篇連貫 的文本。