מסחר באמצעות Machine Learning, שוק המניות וכאוס

1 בספטמבר, 2018

מאת: טלי סורוקר, צוות אנליסטים פיננסיים ב-I Know First

תקציר

  • ישנו הבדל ניכר בין כאוס לבין אקראיות הגורמת למערכות כאוטיות להיות ניתנות לחיזוי, בזמן שמערכות אקראיות לא ניתנות לחיזוי.
  • מידול תהליכים כאוטיים אפשרי בשימוש סטטיסטיקות, אך העניין מורכב מאוד.
  • למידה חישובית (Machine Learning) יכולה לשמש למידול תהליכים כאוטיים באופן יותר אפקטיבי.
  • I Know First משתמשת בבינה מלאכותית ובלמידה חישובית כדי ליצור תחזיות לבורסה.
  • הגדרות למילים המסומנות בקו תחתון נמצאות ברשימת המונחים בסוף המאמר.

כאוס מול אקראיות

הבדלים בתפיסות של אקראיות וכאוס הם מהותיים כשהעניין נוגע ליכולות שלנו להפיק תחזיות למערכות עם אופי שכזה. מערכת אקראית לא ניתנת לחיזוי, שכן כל תוצאה לא מסתמכת על אף אירוע קודם. נניח מטבע שהוטל שבע פעמים ברצף, כאשר בכל הטלה התקבל ״עץ״. ניתן להטיל את המטבע פעם נוספת כאשר ההסתברות שיתקבל ״עץ״ עדיין יהיה 50%. תהליכים קבועים אלו לא משתנים מבחינה סטטיסטית לאורך הזמן, ועל כן לא ניתנים לחיזוי.

נראה שתהליכים בעולם האמיתי הם אקראיים לאדם שאינו בקיא בתחום, אך בבחינה מקרוב ניתן לראות שתהליכים אלו הם למעשה כאוטיים. תהליכים טבעיים כגון רעידות אדמה, גידול אוכלוסייה, ובורסה הם דוגמאות למערכות הניתנות לחיזוי עם דיוק סביר. תהליכים כאוטיים נשלטים ע״י שלוש פרדיגמות מתחרות: יציבות, זיכרון, ושינויים פתאומיים ודרסטיים.

יציבות ניתן לראותה בבורסה כמגמה במניות, עולה או יורדת. בעוד מחיר המניות משתנה בפרק זמן נתון, המגמה  אינה משתנה. ישנה מידה של אי-יציבות לאור ״מגמה שחוקה״. כשמניה עולה וממשיכה לעלות, ישנה נקודה בה משקיעים תוהים לגבי המשך המגמה הנוכחית. כשאנשים מאבדים את הביטחון במגמה, היציבות יורדת.  במקרה זה, אירוע קטן ממדים בעל השפעה נמוכה בדרך כלל, יכול להיות מהותי עד להפיכת המגמה לחלוטין. אפקט זה נקרא ״מודל מפולת ערימת החול״, כאשר גרגר אחד של חול לבסוף גורם לכל הערימה לקרוס. זיכרון הוא ההשפעה שיש לאירועי עבר על המגמה הנוכחית. מניה שידוע שתעלה כנראה תמשיך כך. שינויים פתאומיים ודרסטיים יכולים להתרחש ומשנים את המגמה באופן מוחלט, עם סימן לכך או כלל לא. ״אירועי ברבור שחור״ הם עצמם בלתי צפויים אך שימושיים בבניית תחזיות עתידיות. למחזורים של מגמות עולות ויורדות המתרחשות בתהליכים כאוטיים יש פרקי זמן מגוונים. אחרי פרק זמן רגוע יכולה להיות קפיצה גדולה או ההפך. יחד, המאפיינים האלו של תהליכים כאוטיים מאפשרים ליצור תחזיות על המערכות באמצעות הסתברות.

 

מידול כאוס באמצעות סטטיסטיקות

יצירת מודל של מערכות כאוטיות באמצעות מתמטיקה היא קשה, באופן חלקי בשל ״אפקט הפרפר״. שינויים קטנים בפרמטרים עלולים לגרום לשינויים דרסטיים בתוצאה, בדיוק כמו דבר פשוט, אירוע בו פרפר המנפנף בכנפיו יכול להסתיים בדבר מונומנטלי, כמו מלחמת עולם.

למרות זאת, המגמות ההדרגתיות והנדירוּת של אירועים דרסטיים, כפי שאנו רואים בבורסה, ניתנים למידול באמצעות “f/1 noise model”. העיקרון הבסיסי של מודל זה הוא שגודל האירוע ביחס הפוך לתדירות שלו. במילים אחרות, ככל שאירוע הוא יותר תדיר, כך השפעתו על המערכת קְטֵנָה.f/1 noise model נוצר ע״י זעזוע מקרי למערכת, כמו כן גם אפקטים משולבים של תהליכים נפרדים אך שקשורים זה לזה. דוגמא לכך הן כתבות שאינן תלויות אחת בשנייה, או שילוב של כתבות התורמות כולן לתוצאה משותפת. קשה להצביע על הסיבה המדויקת לתופעת ההתאמה הזו ויכולים להיות מספר טיעונים המנסים להסביר איך כל גורם מושפע ע״י הגורמים האחרים. אנו רואים את f/1 noise model  בהרבה תהליכים טבעיים וחברתיים, ובעוד מקורו טרם הובהר כראוי, זו יכולה להיות סיבה לקיומו. ככזה, 1/f הוא באמצע בין רעש לבן רנדומלי ורעש מגמתי רנדומלי, וברוב התהליכים הכאוטיים האמיתיים, הרעש ב1/f חופף לרעש הרנדומלי (הלבן) הבלתי תלוי.

בתהליכים כאוטיים, אירועי עבר משפיעים על אירועי ההווה והעתיד. במתמטיקה, הקשר בין סדרה עתית וערכי העבר והעתיד שלה מכונה קורלציה-מובנית. בזמן שפונקציות כאלו עבור תהליכים רנדומליים דועכות באופן אקספוננציאלי, עבור תהליכים כאוטיים יש להם מידה של עקביות שהופך אותם לשימושיים ליצירת תחזיות.

בהתבוננות על תהליכים כאוטיים בקני מידה שונים, ניתן לראות שהם שומרים על תבנית דומה בכל קנה מידה שהוא. הדמיון העצמי מביא את נושא הפרקטלים למודל שלנו. כאשר אנו מתבוננים על היחס:

f(x) = ax^-k

שינוי המשתנה x ע״י הגורם הקבוע c, גורם למידתיות פרופורציונלית של הפונקציה המקורית. כך, שמדידת קשר יחסי חלש על ידי c, גורמת לדמיון עצמי כפי שניתן לראות בשתי המערכות הכאוטיות ובפרקטלים.

המאפיין של דמיון עצמי הוא מהותי, שכן הוא מאפשר לנו לבחון את הקשר הלינארי בין הלוגריתמים של (f(x ושל x בתרשים של log-log. השיפוע של הקו בטווח החדש מניב את (Hurst Exponent (H, הערך שיכול להבחין בין פרקטל וסדרה עתית רנדומלית, או למצוא את מחזורי הזיכרון הארוכים.

ישנן שלוש קבוצות שונות של Hurst Exponent: H שווה ל1/2, H פחות מ1/2, H גדול מ1/2 וקטן מ1.

כשHurst Exponent שווה בדיוק ל1 זו אינדיקציה לRandom Walk, תזוזת Brownian לא ניתנת לחיזוי עם התפלגות נורמלית. עבור H קטן מ1  יש רעש (לבן) גבוה ומימד פרקטל גדול. כלומר, יש הסתבכות גבוהה בערכים של המערכת. עבור H שהוא בין 1/2 לבין 1, נקבל שקיימת חפיפה  קטנה יותר ברעש, ושיש ממד פרטקל קטן יותר הניתן לשליטה. זו אינדיקציה לרמה גבוהה של עקביות במידע הנתון, המוביל למחזורי זיכרון ארוכים. בסופו של דבר, Hurst Exponent הוא מדד לעקביות הכוללת במערכת.

אקספוננט נוסף, (Maximal Lyapunov Exponent (MLE ולו קורלציה חזקה לHurst Exponent הוא מדד רגישות לתנאים ההתחלתיים. ניתן למדוד את הMLE ע״י הרצת תוצאת המודל עם שינויים קלים בקלט, ואז מדידה של סטיית הפלט. התהליך הזה הוא פשוט באופן יחסי עבור מודלים קטני ממדים, אך הדבר נעשה מורכב יותר כאשר  מספר המשתנים עולה. ע״י שימוש בהופכי של Lyapunov Exponent, 1/MLE, אנו רואים מדד ליכולת החיזוי של המודל. ככל שהMLE גדול יותר, כך המודל מאבד את יכולת החיזוי שלו מהר יותר.

סדרות עתיות פרקטליות הן מערכות מורכבות, אך ביכולתן למצוא הערכות טובות לתהליכים כאוטיים משום שלשניהם תכונות דומות. עבור התנודות הפרקטליות אנו משתמשים בהתפלגות רחבת קצה  משום שההתפלגות הרגילה צריכה ממוצע קבוע, והדבר אינו שימושי עבור כימות של קבוצת נתונים בעלת דמיון עצמי. באמצעות התפלגות רחבת קצה, השונות היא מייצג של חריגות מקומית המאופיינת על ידי מימד פרקטל (D), כאשר הממוצע הוא מייצג של העקביות הגלובלית המאופיינת ע״י (Hurst Exponent (H. ההתפלגות רחבת הקצה לוקחת בחשבון את ההסתברות למקרים קיצוניים המתחרשים בעולם הטבע ובעולם החברתי.

מידול כאוס באמצעות אלגוריתם

לאור הטבע המורכב של מידול כאוס באמצעות סטטיסטיקה, מדענים נשאו עיניהם למחשבים לפתירת בעיות מסוג זה. בינה מלאכותית ולמידה חישובית (Machine Learning) הוכיחו את עצמם כמוצלחים בצורה יוצאת מן הכלל במידול מבנים כאוטיים ובסופו של דבר ביצירת תחזיות למערכות אלו.

מטרת הלמידה החישובית (Machine Learning) היא הכללה. ביכולתה של המכונה לקחת כמויות של מידע לא מאורגן, למצוא חוקים במידע ואז לחזות שינוי המבוסס על החוקים החבויים שמצאה. בינה מלאכותית נוצרה בדרכים שונות: מבוססת חוקים(Rules based) , למידה מונחית (Supervised Learning), למידה בלתי מונחית (Unsupervised Learning), למידה עמוקה (Deep Learning).

בגישה מבוססת חוקים, אדם יוצר את החוקים והמכונה עוקבת לפיהם כדי לקבל תוצאה. שיטה זו צורכת זמן ולא מאוד מדויקת. למידה מונחית היא למידה מבוססת דוגמאות, ובה הדוגמאות משמשות כמייצגות של כל המידע, בעוד למידה בלתי מונחית משתמשת באוספים על מנת למצוא תבניות חבויות במידע. מכונות בעלות יכולת Deep Learning  מסוגלות למדל אבסטרקציות במידע בצורה יעילה ע״י עיבוד מספר שכבות בעלות מבנים מורכבים. מכונות אלו יכולות באופן אוטומטי לקבוע באילו נקודות להתחשב ואז מוצאות את הקשר ביניהן, ללא התערבות אדם. שלב אחד מתקדם יותר הוא ה”Ultra Deep Learning” המשלב מספר סוגי למידה ומסוגל לא רק להסיק מהחוקים אלא גם לזהות מתי החוקים משתנים.

בלמידת מכונה נדרשת תחילה מסגרת עם כלים מתמטיים וכלים תכנותיים. אז המידע צריך לעבור עיבוד ובו הוא הופך למידע קבוע ללא מחזורים ומגמות. תהליך זה מפחית מהייחודיות של כל נקודה. המודל יכול להיות פרמטרי ויכול להיות א-פרמטרי. למודל פרמטרי יש מספר קבוע של פרמטרים בעוד שלמודל א-פרמטרי מספר הפרמטרים עולה יחד עם המידע עליו המכונה מתאמנת. בשלב הבא, יוצרים דוגמאות עבור המכונה על מנת שתלמד מהם. זהו הקלט ולעיתים בשיטות מסוימות, אף הפלט.

אלגוריתם צריך להיבחר בהתבסס על גורמים כגון אופי המשימה, הזמן העומד לרשות המשימה והדיוק הנדרש כדי להשיג את התוצאות הרלוונטיות. אלגוריתמי חיפוש משתמשים בשיטות כגון:

determining “steepest decent”, best first criterion stochastic search processes such as simulated annealing.

אלגוריתמים גנטיים נוצרו ע״י שימוש בטכניקות שמקבילות לתהליכים גנטיים. האלגוריתם משפר את המידע או את מאגר הגנים ע״י הפעלת קומבינציות, מוטציות, הצלבות ובחירה. בקומבינציות, האלגוריתם מחבר שני פתרונות בתקווה לייצר פתרון טוב יותר. מוטציה, ממש כמו בגנטיקה, כוללות תיעדוף של הפתרון ממספר מקומות כדי לקבל פתרון שונה. הצלבה, ובה פתרונות יכולים לנבוע מפתרונות דומים. בסופו של דבר, מתקיימת בחירה לפי העיקרון המנחה ״החזק שורד״, כך שכל פתרון מתאים נבחר, אחרת תהליך המניפולציה נמשך.

אלגוריתם הניבוי של I Know First

רוב הסדרות העתיות הכלכליות מציגות התנהגות כאוטית קלאסית, כך שניתן לבצע תחזיות על ההתנהגות העתידית שלהן באמצעות טכניקות של למידה חישובית. גישת הבינה המלאכותית היא השורש של אלגוריתם החיזוי של I Know First.

האלגוריתם הגנטי של I Know First עוקב אחרי המידע הנוכחי של השוק ומוסיף אותו למאגר המידע של סדרות עתיות היסטוריות. לאחר מכן, בהתבסס על מאגר המידע שנאסף במשך 15 שנים של מחירי מניות, האלגוריתם מסוגל לבצע תחזיות על גבי שישה טווחי זמן שונים. האלגוריתם מקבל כקלט מידע נוסף, והוא לומד מהצלחותיו וכישלונותיו, כך משפר את התוצאות הבאות.

האלגוריתם של I Know First מזהה מגמות  בבורסה כדי לחזות את המסלול שלו. בכל יום האלגוריתם מנתח מידע גולמי על מנת ליצור תחזית מעודכנת לכל שוק. כל תחזית כוללת שני אינדיקטורים: סיגנל ויכולת חיזוי.

סיגנל

הסיגנל מייצג את התזוזה והכיוון הצפויים ע״פ התחזית, בין אם עלייה או ירידה עבור נכס ספציפי. הסיגנל אינו מייצג מחיר מטרה או תנודה באחוז מסוים.

עוצמת הסיגנל מהווה אינדיקציה לסטייה הקיימת במחיר הנוכחי ע״פ מה שהמערכת מחשיבה כאיזון או כמחיר ״הוגן״.

חיזוי

החיזוי הוא ההתאמה ההיסטורית בין תחזיות אלגוריתמיות קודמות ובין תנודות השוק הנוכחי עבור כל נכס. האלגוריתם מבצע חישוב ממוצע לכל התוצאות של התחזיות היסטוריות, בעוד הוא נותן משקל רב יותר לביצועים האחרונים.

 

מסקנות

ישנן הרבה מערכות בעולם שביכולתן לחזות לאור הטבע הכאוטי שלהן, וניתן להפיק מכך הרבה תועלת. שוק ההון הוא רק דוגמא אחת לתהליכים כמו אלו, עם תחזיות מדויקות המובילות לרווח פיננסי. אנו מייצרים את התחזיות שלנו תחילה ע״י יצירת מודל של אירועים במערכת. אנו יכולים לעשות זאת באמצעות סטטיסטיקות, או כדי להימנע מהקושי הכרוך בכך, להשתמש באלגוריתמים ובבינה מלאכותית. I Know First יצרה אלגוריתם המסוגל לייצר תחזיות מדויקות של שוק ההון, והחברה משתמשת בכך כדי להגדיל את הרווח על ההשקעות של לקוחותיה.

 

רשימת מונחים

  1. תהליכים קבועים – תהליך עם הסתברות קבועה לכל תוצאה אפשרית (למשל, הטלת מטבע).
  2. פרמטרים – מספר מאפיינים של האוכלוסייה.
  3. קורלציה מובנית – דמיון בין אירועים כפונקציה של פער הזמן ביניהם.
  4. דמיון עצמי – מאפיין של אובייקט ששומר על אותה צורה ללא קשר לקנה המידה.
  5. פרקטלים – תופעה טבעית (או קבוצה מתמטית) ולה דפוס חוזר בכל קנה מידה.
  6. קשר לינארי – היחסים בין שני משתנים עם פרופורציה ישירה (הייצוג הגרפי של היחסים האלו הוא קו ישר).
  7. לוגריתמים – ההפך מפונקציה אקספוננציאלית.
  8. התפלגות נורמלית – ההתפלגות של הסתברויות סטטיסטיות עבור אירוע מסוים (יותר מוכר בתור ״גרף פעמון״ או ״פעמון גאוס״).
  9. מימד פרקטלי – היחס המשווה את הפרטים בתוך תבנית של פרקטל יחד עם קנה המידה שבה נמדד.
  10. ממוצע – המגמה המרכזית של התפלגות הסתברותית (למשל, הערך הצפוי).
  11. שונות – המדד שמצביע על המרחק של כל מספר בקבוצה מהממוצע
  12. בינה מלאכותית – מכונות או תוכנות המפגינות התנהגות חכמה
  13. למידה חישובית/למידת מכונה (Machine Learning) – תת תחום במדעי המחשב שחוקר בניית אלגוריתמים המסוגלים ממידע ואז לייצר תחזיות על המידע.
  14. אלגוריתם – הליך או נוסחה שנועדה לפתור בעיה

 

נכתב ותורגם על ידי מחלקת הפיתוח של חברת I Know First