IB 適合那些小朋友?

帖子列表  登錄   
stillgood20 | 2025-11-13 17:55
Quote:poonseelai 發表於 25-11-13 17:42
岑逸飛先生也有類似說法
話分兩頭。
AI是好有用處,只是用的方法和自己調節。
跟人一样。
信義誠(二成),定信八成。

這跟岑逸飛先生的言论可靠性一样。

逐字逐句,去了解。

其实,係無人,無毛病的。

akys | 2025-11-13 20:02
Quote:poonseelai 發表於 25-11-13 13:38
https://www.ibo.org/programmes/artificial-intelligence-ai-in-learning-teaching-and-assessment/

IB ...

BBC :happy:

poonseelai | 2025-11-13 20:19
Quote:akys 發表於 25-11-13 20:02 BBC

10億美金,保險未必cover

加樂爹 | 2025-11-14 10:00
Quote:ANChan59 發表於 25-11-13 12:44
我估你回錯帖,上面已經回覆咗你。

我所見lB這些目標,時不時都改良課程內容及考試模式,去面對世界及社 ...
// 另一點係Al的偽造資訊及案例,reference,如何分別真偽?而且一篇文章或者報道入面有真有假,令人防不勝防,難道就有得佢將電訊詐騙再「發揚光大」?如效有效及有秩序使用Al係急不容緩!//

我會再細分問題:


1. 中小學AI 運用發展....這個本身有教署校本課程, 而課程考核很小涉及個人主見, AI教育程式設計本身是局限了應用功能, 最可能想像發生, 就係一些文科知識, 即係例如說成"南京事件....", 我想跟現時做法一樣, AI 用法, 跟書商與教署溝通同意下指引一樣.


2. 大專以上: 應該如你上文提出的問題, 從前只是plagiarism, 現在是無中生有, AI自己生成, 它可能是有道理, 對錯參半.... 其實我會再看嚴重一點, 現在可以說是進入到人類知識誰屬權的階段? 我這個想法有點誇張, 但係細諗下:


- 單獨看人類世界, 當大部份人認為對, 主流道理就是對.
- 現在有多一個party, AI, 學習力比人類強, 不單一方面, 是整體都強.
- 在AI世代十年廿年後, 社會人事變化, 有誰有能力辨真假.
- 衆多AI 會產生, 百家爭鳴將會出現, 正如春秋時代, 最後整合, 統一到最強的幾個話事.
- 這是 結束了AI 主導了人類知識的過程階段.


...無解決方法.


有, 唯一是你儘快參與, 要做就係成就日後屬於自己能掌握的"最強大AI".


我純粹推論, 聽下各位想法.











加樂爹 | 2025-11-14 10:16
[i=s] 本帖最後由 加樂爹 於 25-11-14 10:24 編輯 [/i] Quote:stillgood20 發表於 25-11-13 16:52
我唔知,学习能力中,有没有思考

問題好嚴重, 但又或者對於Alpha 及 Beta 世代既人唔會覺得有問題 (sadly)

以人類過住做法, 如你說

1. 使用:就是顺利成章, 不使用: 便落在別人后


我加多一項, 以08年金融海瀟:

2. 量化闊鬆 政策 贏左 財政緊縮 政策

AI 可能學習本性: " 人類世界本身都是以強者為王, 呃呃編編既手法, 拖到今日為止"






加樂爹 | 2025-11-14 10:34
再想像多一點, 可以去到寫小說埸景...
人類為解決AI 掌控人類知識的問題, 會發明一種人類掌管意識形態的人體植入AI.

即是保留人類自由思想意識, 但人類的分析/分辨能力, 記憶力, 搜索資訊能力 會無限增強.



twhkleung | 2025-11-14 11:28
以下是我與人工智慧交流的一些經驗:
1. 提出清晰、完整且不含糊的問題。
避免提出過於開放或推測性的問題,例如「宇宙之外是什麼?」否則,人工智慧可能會給出意想不到或不可靠的答案。記住,人工智慧模型的設計初衷並非是說「抱歉,我不知道」。
2. 要求人工智慧「逐步」回答。
由於其底層架構,這些「魔法詞」會促使模型進行更深層的模式匹配和推理。這通常會產生更高品質、結構更清晰的答案。
3. 始終詢問:“你對你的答案有多大把握?”
這不會改變人工智慧的答案,但會告訴你它的把握程度——例如,90% 或 50%。這有助於你判斷對輸出結果的信任程度。
4. 調整“溫度”。
較低的溫度會使人工智慧的回答更加保守和一致(更高的把握度)。較高的溫度會使回答更加有創意和多樣化(更低的把握度)。
5. 調整“Top-P”值。
由於模型並非真正智能,而是依賴快速模式匹配,因此較低的 Top-P 值會限制可能的詞彙選擇範圍,從而導致更簡單、更可預測的答案。較高的 Top-P 值則會擴大詞庫,使模型更有可能產生不常見或「有趣」的詞彙。這就是為什麼您有時會看到一些很少使用的詞語——模型正在從更廣泛的詞彙庫中進行取樣。

如今,人們經常聲稱人工智慧可以幫助您開發完全無缺陷的程式。這並非不可能,但前提是您必須提供一份非常詳細的技術實作規格。
如果您的規範不完整或包含模糊不清的部分,人工智慧會創造性地填補這些空白。結果可能有效,也可能無效。更重要的是,如果沒有進行全面的審查,您可能根本意識不到其中隱藏的風險。在軟體開發中,工作量通常大致分配如下:
- 30% 準備工作(收集使用者需求、將其轉化為技術需求、編寫功能和實現規格)
- 30% 實際編碼
- 30% 調試和測試
- 10% 文檔編寫

對於像微軟或谷歌這樣的大公司來說,人工智慧模型現在可以接管大部分編碼階段的工作——這些工作通常由應屆畢業生完成。這也是這些公司不斷裁員的原因之一。然而,規模較小的公司通常不遵循嚴格的開發週期,而且依賴的人員也較少,因此它們裁員的空間也較小。相信其它行业也差不多.

實際上,當前的人工智慧浪潮正在掏空人力資源人才金字塔的底部。它對中高層職位的影響並不顯著——至少目前是如此。正因如此,一些有遠見的人士認為,未來許多公司可能只需要一個人就能運作。
加樂爹 | 2025-11-14 11:56
Quote:twhkleung 發表於 25-11-14 11:28
以下是我與人工智慧交流的一些經驗:
1. 提出清晰、完整且不含糊的問題。
避免提出過於開放或推測性的問題 ...
謝謝, 長知識.
我想, 這樣學習去迎向AI, 了解及學習AI素養, 更重要.

ANChan59 | 2025-11-14 13:24
Quote:stillgood20 發表於 25-11-13 16:52 我唔知,学习能力中,有没有思考

分辨真假,以自己有限經驗係有嘅! 遲啲再深入去講。

ANChan59 | 2025-11-14 13:49
Quote:twhkleung 發表於 25-11-14 11:28 以下是我與人工智慧交流的一些經驗:
1. 提出清晰、完整且不含糊的問題。
避免提出過於開放或推測性的問題 ...

最近開始甞試用Al去做產品設計,主要是圖像,兒子刚好回港休假,他教我用不同Al tools,整體來講Al係左抄右抄,結果強差人意,要用得順手要花很多時間去訓練fine tuned 字眼及descriptions and specifications。 對我最大幫助係有時它誤解我的意思,產生一些不太合理的rendering,不過入面也有一些亮點,我會保留這些亮點。這試亮點有機會係天馬行空,讓我可以paradigm shift,但去到詳細機械,電機,電子設計時,也有很多挑戰。 它的圖像設計不會考慮知識產權,特別係design patent,我如果用它抄襲來的作藍本深入設計,賣得唔好會好啲,賣得好肯定俾人告硬。 它也可能留咗我嘅概念descriptions,如果有人問到差不多嘅內容,我嘅概念會被Al借給其他人用。同樣它也有機會將別人問的題目,-雞幾賣給我。因為不同考量,我會多在冇乜頭緒時作brainstorming,尋找一些ideas,而非解決方案,牽涉到後續專利嘅嘢,要緊而慎之。

4/24
首頁|前頁|下頁|尾頁
.
Powered by Baby Kingdom
立即打開