Người đăng: Thu Trang   Ngày: 20/04/2020   Lượt xem: 2121

PHÂN TÍCH DỮ LIỆU: HẠN CHẾ SAI SÓT KHI ĐƯA RA QUYẾT ĐỊNH?

(7 bước + 8 lưu ý + 3 nên + 8 thách thức)

Nằm trong chuỗi bài viết chia sẻ về “CONNECT THE DOT” với tư duy chủ đạo theo Lean Six Sigma kết hợp với các cách tư duy khác, với hi vọng giúp cả nhà có được cái nhìn rõ hơn để hiểu bản thân mình, hiểu thực tế xung quanh vận hành như thế nào. Từ đó có thêm nhiều quyết định đúng đắn giúp cuộc sống thêm nhiều thành công trong công việc, hạnh phúc với gia đình. Như Charlie Munger đã nói “"Developing the habit of mastering the multiple models which underlie reality is the best thing you can do". Đặc biệt trong giai đoạn khó khăn thời Covid, chúng ta cần tự trang bị cho mình những kỹ năng sinh tồn thiết yếu cho cá nhân và doanh nghiệp.

Phân tích dữ liệu: Hạn chế sai sót khi đưa ra quyết định?

Từ khảo sát trong 2019, chủ đề các anh chị trong nhóm mong muốn được thảo luận nhất ở trong group là về Phân tích dữ liệu nên mình xin mạn phép bắt đầu từ đây.

Vậy làm cách nào để phân tích dữ liệu để đưa ra quyết định nhanh, đơn giản và hiệu quả?

Trước khi đi sâu phân tích, chúng ta cùng nhau điểm qua các kiến thức nền:

1. Phân tích dữ liệu là một quá trình

2. Quá trình đó nằm trong hệ thống gồm nhiều quá trình khác

3. Hệ thống nên có sự tác động tương tác qua lại, nhân quả, phản hồi

4. Hệ thống có nhiều output (nhanh, hiệu quả, đơn giản) cần trade off

TẠI SAO CÓ SAI SÓT TRONG VIỆC ĐƯA RA QUYẾT ĐỊNH?

Về cơ bản, sai sót trong đưa ra quyết định đến từ 2 nhóm nguyên nhân chính:

1. Không “nhìn thấy” được sự thật

2. Sai lệch trong suy nghĩ của mỗi cá nhân, đến từ tâm lý, cảm xúc

Nhóm 1 có thể mang nhiều tên gọi khác nhau như lỗi khách quan, lỗi phần cứng. Biểu hiện thường thấy là “Úi, cái đó em chưa biết sếp ơi”. Nguyên nhân của nhóm này thông thường do thiếu kiến thức, kinh nghiệm. Thiếu kiến thức dẫn tới đặt sai câu hỏi, xác định sai vấn đề, phân tích sai…Thông thường được khắc phục bởi sự học và trải nghiệm.

Nhóm 2 thường gọi là lỗi chủ quan, cảm xúc, tâm lý, lỗi phần mềm. Biểu hiện chung là “Em cũng không hiểu tại sao em lại mua đồ mà em không bao giờ dùng nữa”. Với nhóm 2 này, cả nhà có thể đọc thêm file “Here Are The 25 Psychological Biases That Cause Us To Make Bad Decisions” ở trong group.

Ở trong bài viết này, mình sẽ tập trung vào việc hạn chế sai sót đến từ nhóm nguyên nhân số 01 với 08 điểm lưu ý:

1. “Begin with the end in mind”

Phải xác định thật cụ thể, chính xác “Vấn đề của bạn là gì”, từ đó chọn nhóm phân tích phù hợp để phân tích

Tìm hiểu về những gì đã diễn ra trong quá khứ, ví dụ tính ổn định của độ thơm của ly cà phê đá tại cửa hàng Highland trong nửa năm 2020: Control chart, Capability, Hypothesis testing, Histogram, Box Plot...

Tìm hiểu về những gì sẽ diễn ra trong tương lai, ví dụ giá chứng khoán sẽ là bao nhiêu trong quý 4/2020: Regression, Forecasting (Time Series Plot, ARIMA, Decomposition…), Reliability Analysis, Prediction CART

Hãy xác định sẽ nên làm cái gì tiếp theo, ví dụ nên thêm/ bớt nguyên vật liệu nào để ly café ngon hơn; chọn supplier A hoặc B để chi phí vận chuyển là thấp nhất: Design of Experiment, Simulation…

2. Data is King. If King of a certain size is made bigger or smaller, it may not behavior at the same way, sometime get better, other get worse.

Không phải dữ liệu càng nhiều thì quyết định càng chính xác. Việc quan trọng là dữ liệu càng nhiều thì dữ liệu nhiễu cũng sẽ càng nhiều. Do đó, việc đưa ra các quy tắc để sàng lọc dữ liệu đảm bảo không bỏ sót thông tin nhưng cũng không bị thông tin nhiễu gây ra sai sót trong nhận định. Một vài bước nhỏ:

Chọn đại lượng đo và đảm bảo dữ liệu đáng tin cậy và cân bằng giữa rủi ro và chi phí cho việc thu thập, phân tích dữ liệu

- Cách chọn được đại lượng đo lường thể hiện được vấn đề và thấy được sự thay đổi trước sau. Bạn có thể nhờ tư vấn thêm từ Black Belt/ Master Black Belt của công ty.

- Dữ liệu phải đảm bảo thể hiện đặc tính của process/ population và được lấy ngẫu nhiên, phân tầng hay kết hợp.

- Kiểm tra hệ thống đo lường của bạn có đáng tin cậy hay không (Gage R&R, Attribute Agreement Analysis, Bias, Linear Study…).

- Brainstorming possible cause gây ra vấn đề đang quan tâm ở bước số 1, để tiến hành thu thập dữ liệu cùng với đại lượng đo lường. Chất lượng brainstorming sẽ quyết định sự hiệu quả của việc thu thập và phân tích dữ liệu sau khi thu thập. Nên kết hợp với các công cụ khác như SIPOC, process mapping, fishbone, 5Why… để giúp sàng lọc từ possible cause còn probable causes.

- Số lượng mẫu cần thu thập cho phân tích quan trọng: sample size càng lớn, rủi ro kết luận sai càng thấp và chi phí càng cao và ngược lại. Nó phụ thuộc vào mức độ sai số bạn chấp nhận giá trị từ sample và giá trị thực của population – đến từ yêu cầu của business, dao động của quá trình, mức rủi ro chấp nhận sai số trong kết luận phân tích (tương ứng với độ tin cậy 95%/ 99%...)

3. Leverage by vital few, simplify by removing trivial many – 80/20 principle

Khai thác tối đa thông tin từ kết quả phân tích: không chỉ tập trung vào những lợi ích đến từ việc cải thiện nhân tố quan trọng mà còn chú ý đến lợi ích của việc “buông bỏ”.

Ví dụ khi phân tích dữ liệu để tìm ra các thông số ảnh hưởng tới kết quả/vấn đề thì mọi người hay quan tâm đến những thông số có p value nhỏ hơn 5%. Tuy nhiên, đối với các thông số có p value lớn hơn 5%, ta có thể quyết định không cần kiểm soát nó kỹ như trước đây, hay thay nguyên vật liệu mắc tiền thành nguyên vật liệu rẻ hơn…Nó giúp công ty tiết kiệm được nhiều $$ hơn là chỉ tập trung vào optimize những thông số quan trọng.

4. Local optimization vs global optimization

Việc ra quyết định dựa trên phân tích dữ liệu nên đảm bảo cân bằng giữa hiệu quả (right thing), nhanh (right time) và đơn giản (right way). Vì việc quá tập trung tối ưu một quá trình có thể dẫn tới ảnh hưởng xấu tới tính hiệu quả của toàn hệ thống.

Nên ưu tiên đảm bảo right thing, right time rồi đến right way. Bởi vì dù bạn có làm đơn giản mà sai và không đúng thời gian yêu cầu thì quyết định đó sẽ không còn ý nghĩa nữa.

5. Every action has consequence.

Both intended and unintended

Cần xem xét ảnh hưởng không mong muốn từ quyết định sắp được đưa ra. Phân tích dữ liệu là một process trong một hệ thống nên dù bạn có muốn hay không thì những kết quả không mong muốn do tác động này có thể sẽ xảy ra. Tiến hành đánh giá rủi ro dùng các công cụ cơ bản như FMEA để đánh giá, ưu tiên và đưa ra các hành động ngăn ngừa.

6. Critical mass or tipping point – Good things take time

Thông thường nhân đến trước và quả đến sau. Câu hỏi đặt ra là làm sao để thấy được tác động của decision càng sớm càng tốt. Cần tạo ra hệ thống phản hồi (feedback loop) và đôi khi bạn phải thay đổi cách đo lường, hoặc tần suất đo lường để kịp thời đưa ra các điều chỉnh thích hợp: không quá nóng vội khi kết quả chưa tới hoặc không quá chậm trễ để phản ứng. Vú dụ nhiều công ty bên cạnh đo chỉ số đo lường theo tháng thì vẫn có theo dõi theo tuần, ngày, thậm chí là ca làm việc đối với các khu vực sản xuất.

7. Data is meaningless without context

Cùng một bộ dữ liệu đầu vào giống nhau nhưng các nhóm phân tích khác nhau lại thường có những diễn giải cũng như quyết định khác nhau, đặc biệt là khi bộ dữ liệu gồm nhiều yếu tố có mối tương quan với nhau. Đây được gọi là “Tính chủ quan trong phân tích dữ liệu” và đây là phần rất quan trọng, quyết định khả năng tra tấn dữ liệu để lấy thông tin, kết nối thông tin lại để có được kiến thức giúp đưa ra quyết định. Bạn cảm nghĩ gì khi nghe, bạn mình nói “Năm nay mình mới được công ty tăng lương lên 50%”. Có người xuýt xao khen ông bạn giói…Nhưng nếu bạn biết thêm dữ kiện là các nhân viên còn lại ai cũng được tăng 100% lương thì có lẽ ý nghĩa câu nói lúc nãy sẽ khác.

8. Data analysis is one of options

Để có thông tin, bên cạnh phân tích dữ liệu còn nhiều cách khác như kinh nghiệm, trực giác, suy đoán, giả định. Dữ liệu nếu không kết hợp với kiến thức của chuyên gia về quy trình thì có thể đưa ra các nhận định không phản ánh được tổng thể bức tranh hoặc bạn có thể bị dữ liệu tạo ra các màn che sự thật!

ÁP DỤNG VÀO THỰC TẾ?

7 bước cơ bản để phân tích dữ liệu đưa ra quyết định:

Vấn đề => Dữ liệu => Thông tin => Kiến thức => Quyết định => Kết quả => Phản hồi => Vấn đề…

Đây là một chuỗi các quá trình lặp đi lặp lại, và có mối quan hệ nhân quả, tương quan với nhau. Do đó, để tăng tính hiệu quả, nhanh và đơn giản thì việc nên làm sẽ là:

1. Đơn giản hóa: các bước nhỏ trong 07 bảy bước lớn này. Mục đích của đơn giản hóa về cơ bản là để giảm sai sót, càng nhiều cơ hội tạo sai sót thì khả năng sai sót lại càng cao. Hơn nữa việc loại bỏ các bước lãng phí (7+ waste) sẽ giúp việc phân tích dữ liệu nhanh hơn.

2. Chuẩn hóa: Để đảm bảo việc phân tích dữ liệu để đưa ra quyết định có tính lặp lại. Thành công không chỉ đến từ may mắn, mà đến từ việc chúng ta thiết kế để thành công dựa trên các chuẩn hóa. Việc liên tục học hỏi nhân tố thành công cũng như tránh các nhân tố thất bại (DO and DON’T list) giúp việc phân tích dữ liệu của bạn và doanh nghiệp ngày mỗi tốt hơn.

3. Vượt qua các thách thức khi phân tích dữ liệu?

  • Xác định đúng vấn đề, đặt đúng câu hỏi (Sẽ có bài chia sẻ về chủ đề này)
  • Giữa biển dữ liệu như hiện nay, làm sao để loại được các dữ liệu nhiễu?
  • Phân tích theo trình tự nào để lấy được thông tin?
  • Kết nối thông tin ra sao để có được kiến thức trước khi ra quyết định?
  • Làm sao tránh cảm xúc gây ảnh hướng tới quyết định?
  • Ký luật đề duy trì kết quả?
  • Làm sao tạo được vòng phản hồi đảm bảo độ trễ ảnh hưởng của quyết định là phù hợp nhất?
  • Nếu vấn đề được giải quyết thì đâu là yếu tố thành công thì yếu tố nào là cái nên làm, nếu thất bại thì đâu là những việc cần tránh?

Tất cả những thách thức trên sẽ được chia sẻ ở các bài tiếp theo trong chuỗi bài “CONNECT THE DOT” của mình với hi vọng giúp mọi người có được quyết định chính xác hơn. Từ đó, giúp doanh nghiệp thêm vững mạnh qua mùa Covid!

Và cuối cùng là bởi vì “ Essentialy, all model/ concept are wrong, but some are useful – George Box” cho nên mình hi vọng nhận được câu hỏi, góp ý cả nhà có thể thả ở phần comment để chúng ta cùng hoàn thiện góc nhìn và tạo nhiều giá trị cho cộng đồng.

(Fb Nguyen Thanh Hai)

(3 ratings)

Tags: data analysis, phân tích dữ liệu