Re: [問卦] Google翻譯是不是進步的有點太快了
※ 引述《IMCENTER (Grom)》之銘言:
: 如題阿
: 我記得幾年前用Google翻譯段落式文章
: 通常都翻的有點顛三倒四
: 但這一兩年翻段落式的(大概三到四句)都可以說的上還算通順可理解
: Google翻譯是不是進步的有點太快了?
:
AI做NLP有兩種
一個是BERT之前的作法
一個是BERT誕生後的作法
基本上現在你看到NLP做比較成熟的應用
他的pretrained model
都是拿BERT或後續衍生模型再接幾層layer的
所以說現在做AI真的很幸福
一個頂級商業化應用的模型都可以直接開源給你用
根本不用一層層搭seq2seq 或attention model了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.83.155.239 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1569771643.A.4C8.html
推
09/29 23:41,
6年前
, 1F
09/29 23:41, 1F
推
09/29 23:42,
6年前
, 2F
09/29 23:42, 2F
推
09/29 23:42,
6年前
, 3F
09/29 23:42, 3F
推
09/29 23:43,
6年前
, 4F
09/29 23:43, 4F
推
09/29 23:44,
6年前
, 5F
09/29 23:44, 5F
推
09/29 23:46,
6年前
, 6F
09/29 23:46, 6F
推
09/29 23:47,
6年前
, 7F
09/29 23:47, 7F
推
09/29 23:47,
6年前
, 8F
09/29 23:47, 8F
→
09/29 23:47,
6年前
, 9F
09/29 23:47, 9F
推
09/29 23:48,
6年前
, 10F
09/29 23:48, 10F
→
09/29 23:48,
6年前
, 11F
09/29 23:48, 11F
推
09/29 23:50,
6年前
, 12F
09/29 23:50, 12F
→
09/29 23:51,
6年前
, 13F
09/29 23:51, 13F
推
09/29 23:52,
6年前
, 14F
09/29 23:52, 14F
→
09/29 23:52,
6年前
, 15F
09/29 23:52, 15F
推
09/29 23:52,
6年前
, 16F
09/29 23:52, 16F
推
09/29 23:53,
6年前
, 17F
09/29 23:53, 17F
推
09/29 23:54,
6年前
, 18F
09/29 23:54, 18F
推
09/29 23:57,
6年前
, 19F
09/29 23:57, 19F
真的
看來板上做DL的真的沒想像中多
→
09/29 23:58,
6年前
, 20F
09/29 23:58, 20F
→
09/29 23:59,
6年前
, 21F
09/29 23:59, 21F
推
09/30 00:01,
6年前
, 22F
09/30 00:01, 22F
推
09/30 00:02,
6年前
, 23F
09/30 00:02, 23F
噓
09/30 00:04,
6年前
, 24F
09/30 00:04, 24F
推
09/30 00:05,
6年前
, 25F
09/30 00:05, 25F
→
09/30 00:05,
6年前
, 26F
09/30 00:05, 26F
autoML不會幫你依據產品需求搭FC層呀
微調到精準這種事就是要靠人
推
09/30 00:11,
6年前
, 27F
09/30 00:11, 27F
推
09/30 00:12,
6年前
, 28F
09/30 00:12, 28F
推
09/30 00:13,
6年前
, 29F
09/30 00:13, 29F
真的,BERT發明後一整個進入城堡時代的節奏
→
09/30 00:13,
6年前
, 30F
09/30 00:13, 30F
噓
09/30 00:21,
6年前
, 31F
09/30 00:21, 31F
推
09/30 00:23,
6年前
, 32F
09/30 00:23, 32F
推
09/30 00:26,
6年前
, 33F
09/30 00:26, 33F
推
09/30 00:28,
6年前
, 34F
09/30 00:28, 34F
推
09/30 00:34,
6年前
, 35F
09/30 00:34, 35F
推
09/30 00:37,
6年前
, 36F
09/30 00:37, 36F
推
09/30 00:37,
6年前
, 37F
09/30 00:37, 37F
推
09/30 00:41,
6年前
, 38F
09/30 00:41, 38F
→
09/30 00:42,
6年前
, 39F
09/30 00:42, 39F
→
09/30 00:42,
6年前
, 40F
09/30 00:42, 40F
哈哈哈我是也沒很在意啦
但我還是整理了一個全中文版如下
————————————————
人工智能做自然語意處理有兩種
一個是博特之前的作法
一個是博特誕生後的作法
基本上現在你看到自然語意處理做比較成熟的應用
他的預先訓練好的原模型
都是拿博特或後續衍生模型再接幾層神經網路層的
所以說現在做人工智慧真的很幸福
一個頂級商業化應用的模型都可以直接開源給你用
根本不用一層層搭「序列到序列模型」或「注意力機制模型」(例如變形金剛)了
————————————————
推
09/30 01:07,
6年前
, 41F
09/30 01:07, 41F
噓
09/30 01:08,
6年前
, 42F
09/30 01:08, 42F
※ 編輯: ruokcnn (111.83.155.239 臺灣), 09/30/2019 01:19:19
噓
09/30 01:16,
6年前
, 43F
09/30 01:16, 43F
推
09/30 01:20,
6年前
, 44F
09/30 01:20, 44F
推
09/30 01:47,
6年前
, 45F
09/30 01:47, 45F
推
09/30 01:57,
6年前
, 46F
09/30 01:57, 46F
推
09/30 01:59,
6年前
, 47F
09/30 01:59, 47F
→
09/30 02:00,
6年前
, 48F
09/30 02:00, 48F
→
09/30 02:00,
6年前
, 49F
09/30 02:00, 49F
推
09/30 02:00,
6年前
, 50F
09/30 02:00, 50F
→
09/30 02:00,
6年前
, 51F
09/30 02:00, 51F
推
09/30 02:01,
6年前
, 52F
09/30 02:01, 52F
推
09/30 02:01,
6年前
, 53F
09/30 02:01, 53F
推
09/30 02:03,
6年前
, 54F
09/30 02:03, 54F
→
09/30 02:45,
6年前
, 55F
09/30 02:45, 55F
噓
09/30 05:58,
6年前
, 56F
09/30 05:58, 56F
推
09/30 06:22,
6年前
, 57F
09/30 06:22, 57F
小弟最近鑽研增強學習領域
剛研讀完「深度確定性策略剃度下降」模型
還正在「近端策略優化」模型的摸索中
順便問下有人能幫導讀「近端策略優化」嗎....
光從「Q學習」到「深度確定性策略剃度下降」我腦袋就要塞爆了....
噓
09/30 07:54,
6年前
, 58F
09/30 07:54, 58F
推
09/30 08:05,
6年前
, 59F
09/30 08:05, 59F
推
09/30 09:33,
6年前
, 60F
09/30 09:33, 60F
推
09/30 11:57,
6年前
, 61F
09/30 11:57, 61F
推
09/30 12:05,
6年前
, 62F
09/30 12:05, 62F
推
09/30 13:09,
6年前
, 63F
09/30 13:09, 63F
推
09/30 14:35,
6年前
, 64F
09/30 14:35, 64F
推
09/30 16:43,
6年前
, 65F
09/30 16:43, 65F
→
09/30 16:43,
6年前
, 66F
09/30 16:43, 66F
演員評論家哈哈哈哈
※ 編輯: ruokcnn (114.137.193.171 臺灣), 09/30/2019 18:01:14
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 2 篇):